生成式人工智能(GenAI)和大型语言模型(LLM)是过去一年讨论的焦点。当 GPT 发布时,OpenAI 打开了LLM在技术生态系统中的使用大门。像Meta,Microsoft和Google这样的公...
【论文速读】 | AI驱动修复:漏洞自动化修复的未来
本次分享论文为:AI-powered patching: the future of automated vulnerability fixes 基本信息 原文作者:Jan Nowakowski, J...
微软、OpenAI警告:国家级黑客借助AI进行网络攻击
Nation-state actors associated with Russia, North Korea, Iran, and other country are experimenting w...
G.O.S.S.I.P 阅读推荐 2023-10-31 如何写好 Prompt,让 GPT适用于静态分析
“ 最近看了一些LLMs与静态分析结合的文章,包括使用LLMs进行代码总结、注释补充等等,因此想稍微总结并测试一下prompt的正确写法。”1. 测试目标 测试目标和最近在做的工作有关系,主要是...
专题解读 | ICLR2024图与大语言模型结合论文介绍
这次分享两篇近期在ICLR2024投稿的图与大语言模型结合的论文。一、Thought Propagation第一篇论文名为《Thought Propagation: An Analogical App...
基于大语言模型(LLMs)的应用威胁面分析
近期火热的ChatGPT是一种基于大型语言模型(LLMs)的应用,该应用允许用户与其自然语言交互,获取各种问题的答案。但新技术与应用的出现往往伴随着两面性,当人们在关注LLMs应用带来的优势的同时,也...
LLMs安全:针对业务模型应用场景下提示词攻击的防御检测方案
引言近期OpenAI在DevDay上发布了GPTs功能,允许用户根据特定的需求创建和使用定制版的GPT模型并通过GPTs Store分享给其他用户使用,未来在大模型应用领域已经开始趋于由OpenAI这...
LLMs安全:针对业务模型应用场景下提示词的攻击手段与危害
引言大语言模型凭借其卓越的语言生成、精准的文本理解能力以及对海量数据的涵盖,赢得了广泛的关注和应用,其影响现实世界的能力备受人们瞩目。近期,随着大模型应用的涌现,人们对于大模型使用的期望已超越简单的对...
LLMSecOps:在大语言模型时代提升安全性
引言随着人工智能技术的飞速发展,大型语言模型(LLMs)如GPT-4和PaLM-2已经成为了技术前沿的代表。这些模型不仅展示了人工智能在创造力和能力方面的巨大潜力,而且在处理复杂的语言任务时表现出了前...
从ChatGPT代码执行逃逸到LLMs应用安全思考
摘要11月7日OpenAI发布会后,GPT-4的最新更新为用户带来了更加便捷的功能,包括Python代码解释器、网络内容浏览和图像生成能力。这些创新不仅开辟了人工智能应用的新境界,也展示了GPT-4在...
G.O.S.S.I.P 阅读推荐 2023-10-27 LLM支持的协议Fuzzing
https://mpi-softsec.github.io/papers/NDSS24-chatafl.pdf 今天介绍一篇NDSS 2024论文,内容是基于LLM的协议fuzzing工作,来自德国m...
专题笔记征稿 | Security Tasks of LLMs-Driven 2023
2022年底以ChatGPT为代表的大语言模型(LLMs)的横空出世,意味着奇点时刻即将降临,其在知识学习、文本翻译、文本生成等任务中的优秀表现,让科研人员看到了新的曙光。目前,LLMs 正在被尝试应...
7