编者按美国国家标准与技术研究所(NIST)3月24日正式发布保护AI系统免受对抗性攻击的最新指南《对抗性机器学习:攻击和缓解的分类和术语》(NIST AI 100-2e2025)。该指南描述了对抗性机...
【公益译文】大语言模型安全测试方法
一前言世界数字技术院(WDTA)开发和发布了“大语言模型安全测试方法”,这表明相关人员始终致力于推进关键进展,保证人工智能技术的可信和安全使用。大语言模型等人工智能系统逐渐成为社会各个领域中不可或缺的...
人工智能安全概述
张坤,脑动极光首席信息安全官、OWASP北京分会负责人、网安加社区特聘专家、西班牙UAB大学硕士(Full time)、 北京某高校网络空间安全学院研究生导师、 网络安全研究生实习基地导师、中国卫生信...
多模态大语言模型的致命漏洞:语音攻击
OpenAI近日发布的GPT-4o多模态大语言模型震惊了世界,该模型可以通过传感器感知世界并与人类通过语音进行无缝交流,完成各种复杂任务(例如给孩子辅导数学),将科幻电影中的智能机器人场景带入现实。G...
自动驾驶环境下对抗性攻击的可行性 BMW
点击上方蓝色字体,关注我们/ 技术交流群 /添加微信15021948198,申请会员下载ppt & 加入汽车网络信息安全、测试评价、汽车电子、自动驾驶技术交流群、招聘求职群、投融资合作群......
AI 人工智能面临哪些攻击威胁?
对于这个问题,咱先问问 GPT 的回答:人工智能(AI)系统面临多种安全威胁,这些威胁可能会影响 AI 的性能、可靠性和安全性。以下是一些主要的攻击威胁:数据污染攻击(Data Poisoning A...
警报:大模型正叩响内容安全大门
随着大语言模型在各领域的广泛应用其潜在风险和威胁逐渐凸显不准确或误导性信息引发的「内容安全」正成为无法忽视的安全隐忧↓不公平性与偏见对抗性攻击恶意代码生成以及安全漏洞利用持续发出风险警报* 2023年...
警报:大模型正叩响内容安全大门
随着大语言模型在各领域的广泛应用其潜在风险和威胁逐渐凸显不准确或误导性信息引发的「内容安全」正成为无法忽视的安全隐忧↓不公平性与偏见对抗性攻击恶意代码生成以及安全漏洞利用持续发出风险警报* 2023年...
AI发展背后的数据安全
近年来AI技术的发展可谓日新月异,尤其是2022年OpenAI公司ChatGPT的发布点燃了AI行业发展的浪潮,各种AI产品层出不穷——OpenAI的ChatGPT-4、“好未来”公司的AI讲题机器人...
ChatGPT机器人的大缺陷,你绝对不能忽视!
ChatGPT等人工智能(AI)聊天机器人历经多次调整,试图避免遭恶意人士操控给出不良信息,比如仇恨言论、个人信息,或者制作简易炸弹的步骤。但就在上周,卡耐基梅隆大学(CMU)的研究人员证实,只需往提...
如何阻止针对AI模型的对抗性攻击
人工智能(AI)技术的进步已对人类社会产生了重大影响,但也引起了研究人员的担忧,因为随着AI技术的深入应用,与之相应的对抗性攻击也变得越来越普遍。这些攻击可能会对AI系统的安全性和可靠性造成威胁,甚至...