聚焦源代码安全,网罗国内外最新资讯!编译:代码卫士如下是谷歌 Project Zero 发布的一篇文章,详述了 Big Sleep 项目如何发现了传统模糊测试无法发现的0day漏洞,探讨了大语言模型在...
深化人工智能安全监管研究
前言确保人工智能安全、可靠、可控,有利于人类文明进步,是人工智能发展必须解决的重要课题。党的二十届三中全会《决定》作出“建立人工智能安全监管制度”“完善生成式人工智能发展和管理机制”等重要部署。如何加...
Project Zero:从午睡到大睡:利用大型语言模型捕捉现实世界代码中的漏洞
From Naptime to Big Sleep: Using Large Language Models To Catch Vulnerabilities In Real-World Code介绍...
NeurIPS 2024 让大语言模型使用代码解决图分析推理任务
Neurips 2024 让大语言模型像人类专家一样使用代码解决图分析推理任务论文链接: (https://arxiv.org/abs/2409.19667/)GitHub链接: (https://g...
AIGC安全评估
背景介绍最近有朋友问到AIGC安全评估的一些问题,最近做了一些调研,因为博主视野有限,文章不足之处请谅解。根据国家网信办、国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局七部门的要求,...
Obsidian的Whisper插件(AI语音转文本)
OpenAI的Whisper API,可以实现语音转文字的功能。Obsidian提供Whisper插件,配置好Whisper插件的 API参数后,上传音频文件,就可以把语音中的文字内容转换成文本输出。...
大模型的评估方法
经常看到SOTA这个词。SOTA 是 State-Of-The-Art 的缩写。在人工智能 的背景下,它指的是可用于实现任务结果的最佳模型。请注意:它应该只是 AI 特定的任务。简单说,在某项评估中得...
对抗式机器学习攻击与缓解措施分类及术语(下)
全文共18526字,阅读大约需28分钟。 往期推荐:【公益译文】对抗式机器学习攻击与缓解措施分类及术语(上) 三 生成式AI分类 生成式AI包括多种人工智能技术,它们具有不同的起源、建模方法和相关属...
PathSeeker:使用基于强化学习的越狱攻击方法探索大语言模型的安全漏洞
基本信息 原文标题: PathSeeker: Exploring LLM Security Vulnerabilities with a Reinforcement Learning-Based Ja...
与AI大语言模型进行语音对话(ollama voice)
如果想通过语音与AI大语言模型进行对话,可以使用AI语音助手,Ollama Voice语音助手,可以将用户的语音转换成文字,向Ollama大语言模型工具提问,返回的文字再转换成音频播放出来,实现用户与...
【论文速读】| RED QUEEN: 保护大语言模型免受隐蔽多轮越狱攻击
基本信息原文标题:RED QUEEN: Safeguarding Large Language Models against Concealed Multi-Turn Jailbreaking原文作者...
AI安全 | 大模型越狱探索
前言 米斯特安全团队准备新建AI安全组,目前正在招人,感兴趣的可以投递简历至admin[#]hi-ourlife.com,请备注工作岗位以及就读院校和专业,我们欢迎就读相关专业的学生以及有在从事...
68