本次分享论文为:LLM Platform Security: Applying a Systematic Evaluation Framework to OpenAI’s ChatGPT Plugin...
研究发现 AI 代理 GPT-4 大语言模型 (LLM) 代理利用相关CVE的安全漏洞
LLM客户端可以自主利用 One-day 漏洞LLMs无论是在良性用途还是恶意用途方面,都变得越来越强大。随着能力的提高,研究人员对他们利用网络安全漏洞的能力越来越感兴趣。特别是,最近的工作对LLM代...
【论文速读】| CHEMFUZZ: 大语言模型辅助模糊测试用于量子化学软件缺陷检测
本次分享论文为:CHEMFUZZ: Large Language Models-assisted Fuzzing for Quantum Chemistry Software Bug Detectio...
一次完整的借助大模型进行软件安全工具研制的过程(一)
经过对轻量级大模型应用的思考:是不是该考虑轻量化大语言模型LLLM了?(点击阅读)对于开源本地大模型项目与RAG技术结合的尝试:不是GPT4不优秀,而是私有部署大模型更有性价比,一次功能模块设计,威胁...
蚂蚁牵头的大模型安全测评标准发布
第 27 届联合国科技大会(the 27th UN CSTD Annual Meeting)正在瑞士日内瓦召开。大会期间,世界数字技术院(WDTA)发布了两项国际标准:《生成式人工智能应用安全测试标准...
CSA大中华区牵头 | 生成式AI应用安全、大模型安全标准发布
4月16日联合国日内瓦总部万国宫,由世界数字技术院(WDTA)与云安全联盟大中华区(CSA GCR)联合主办第27届联合国科技大会AI边会上,世界数字技术院(WDTA)发布了两项具有重要意义的国际标准...
【论文速读】| TroubleLLM:与红队专家对齐
本次分享论文为:TroubleLLM: Align to Red Team Expert基本信息原文作者:Zhuoer Xu, Jianping Zhang, Shiwen Cui, Changhua...
【论文速读】| 大语言模型是边缘情况模糊测试器:通过FuzzGPT测试深度学习库
本次分享论文为:Large Language Models are Edge-Case Fuzzers: Testing Deep Learning Libraries via FuzzGPT基本信息...
AI安全:LLM的风险揭示与安全性评估
大语言模型(LLM)在当前社会中扮演着日益重要的角色,其广泛应用领域突显了其对社会和技术发展的重要性。然而,强大却也脆弱,大语言模型的这一特性,让我们看到了人工智能发展的双刃剑效应,如何确保大语言模型...
OWASP发布大语言模型网络安全与治理清单
当前人工智能技术面临的最大风险是大语言模型(LLM)和生成式人工智能技术的发展和应用速度已经远远超过了安全和治理的速度。OpenAI、Anthropic、谷歌和微软等公司的生成式人工智能和大语言模型产...
【论文速读】| CovRL:基于覆盖引导的强化学习对LLM基础变异进行JavaScript引擎模糊测试
本次分享论文为:CovRL: Fuzzing JavaScript Engines with Coverage-Guided Reinforcement Learning for LLM-based ...
重磅发布 | 开源大语言模型安全性测评报告
为深入学习贯彻全国两会精神,落实《工业和信息化部等十六部门关于促进数据安全产业发展的指导意见》《生成式人工智能服务管理暂行办法》以及“人工智能+”行动等要求,加快数据安全技术与人工智能新兴技术的交叉融...
6