聚焦源代码安全,网罗国内外最新资讯!编译:代码卫士如下是谷歌 Project Zero 发布的一篇文章,详述了 Big Sleep 项目如何发现了传统模糊测试无法发现的0day漏洞,探讨了大语言模型在...
Project Zero:从午睡到大睡:利用大型语言模型捕捉现实世界代码中的漏洞
From Naptime to Big Sleep: Using Large Language Models To Catch Vulnerabilities In Real-World Code介绍...
NeurIPS 2024 让大语言模型使用代码解决图分析推理任务
Neurips 2024 让大语言模型像人类专家一样使用代码解决图分析推理任务论文链接: (https://arxiv.org/abs/2409.19667/)GitHub链接: (https://g...
PathSeeker:使用基于强化学习的越狱攻击方法探索大语言模型的安全漏洞
基本信息 原文标题: PathSeeker: Exploring LLM Security Vulnerabilities with a Reinforcement Learning-Based Ja...
与AI大语言模型进行语音对话(ollama voice)
如果想通过语音与AI大语言模型进行对话,可以使用AI语音助手,Ollama Voice语音助手,可以将用户的语音转换成文字,向Ollama大语言模型工具提问,返回的文字再转换成音频播放出来,实现用户与...
【论文速读】| RED QUEEN: 保护大语言模型免受隐蔽多轮越狱攻击
基本信息原文标题:RED QUEEN: Safeguarding Large Language Models against Concealed Multi-Turn Jailbreaking原文作者...
突破ChatGPT-4o 安全防护:使用十六进制编码生成 CVE 漏洞利用代码
要点概述0Din 研究员 Marco Figueroa 发现了一种编码技术,可以绕过 ChatGPT-4o 和其他主流 AI 模型的内置安全防护,使其能够生成漏洞利用代码。这一发现揭示了 AI 安全措...
大模型应用之RAG技术学习
什么是RAG检索增强生成(Retrieval Augmented Generation, RAG)是一种技术,它通过从数据源中检索信息来辅助大语言模型(Large Language Model, LL...
【论文速读】| LSAST:通过LLM支持的静态应用安全测试增强网络安全
基本信息原文标题:LSAST: Enhancing Cybersecurity through LLM-supported Static Application Security Testing原文作...
澳州《关于隐私和使用市售人工智能产品的指南》全文翻译
编者按关于LLMs(大型语言模型)的风险和监管,本公号发布过以下文章:ChatGPT是网络上的一个模糊的JPEG文件(外专观点)ChatGPT是如何劫持民主进程(外专观点)ChatGPT:欧洲禁止Re...
澳洲关于隐私以及开发和训练生成式人工智能模型的指南(全文翻译)
编者按关于LLMs(大型语言模型)的风险和监管,本公号发布过以下文章:ChatGPT是网络上的一个模糊的JPEG文件(外专观点)ChatGPT是如何劫持民主进程(外专观点)ChatGPT:欧洲禁止Re...
大语言模型提升安全运营的十种方法
为什么说大语言模型是网络安全运营的一次革命?安全大语言模型到底能不能打?怎么打?网络安全是人工智能最大的细分市场,而安全运营则是生成式人工智能最热门的应用领域之一。以ChatGPT为代表的,基于大语言...
30