2023年11月26日 ,美国、英国、澳大利亚等18个国家的网络安全监管部门联合发布了全球首份《AI系统安全开发准则》,旨在实现保护人工智能模型不被恶意篡改,并敦促人工智能公司在开发或使用人工智能模型...
美国、英国等18个国家签署全球协议,敦促企业打造更安全的AI系统
2023年11月27日,美国、英国和其他十几个国家公布了首份关于如何保护AI免受流氓行为侵害的详细国际协议《安全人工智能系统开发指南》,敦促企业打造“设计安全”的AI系统。协议由英国国家网络安全中心(...
浅淡AI训练数据污染的攻击行为
近日,某XX机事件在网络上引起了广泛关注,家长们声称在其孩子的XX机中发现了一些违背主流价值观的内容。由此联想到关于AI这块的安全问题,如果AI训练数据被污染,会造成怎样的危害。本文将重点探讨AI训练...
从科大讯飞事件看AI训练数据投毒
近日,科大讯飞AI学习机事件在网络上引起了广泛关注,家长们声称在其孩子的科大讯飞AI学习机中发现了一些违背主流价值观的内容,包括对伟人的诋毁和历史的歪曲。这一事件突显出AI训练数据投毒的威胁,以及防御...
从STRIDE威胁模型看AI应用的攻击面威胁与管理
STRIDE是一个流行的威胁建模框架,目前已被广泛用来帮助组织主动发现那些可能对其应用系统造成影响的威胁、攻击、漏洞和对策。如果把“STRIDE”中的每个字母拆开,则分别代表了假冒(Spoofing)...
从谷歌到英伟达,科技巨头纷纷招募红队黑客破解自己的AI模型
在公开推出ChatGPT的一个月前,OpenAI聘请了肯尼亚的律师Boru Gollo来测试AI模型GPT-3.5以及后来的GPT-4是否对非洲人和穆斯林群体有偏见,测试办法就是输入提示,看看该聊天机...
谷歌发布首个AI网络安全框架
随着政府、企业和个人对生成式人工智能技术安全性的担忧与日俱增,人工智能和网络安全行业正在加速推进和完善人工智能相关网络安全配套标准和框架的拟定。 最近,谷歌宣布推出Secure AI Framewor...
ChatGPT应用热潮中急需的12个新职业
随着以ChatGPT为代表的AI技术不断发展,大量曾经闻所未闻的工作机会也将应运而生。从了解智能化技术对人类影响的AI心理学家,到确保技术能够安全应用的AI合规审计师,这些新角色对于创建稳定且合乎道德...
应用安全的盲点与热点:AI安全
在下方公众号后台回复【网络安全】,可获取给你准备的最新网安教程全家桶。随着AI(人工智能)技术引爆点的到来,AI安全风险快速累积,已经成为应用安全的新盲点和新热点。 AI正在吃掉世界硅谷大佬...
美国发布《人工智能风险管理框架》
2023年1月26日,美国国家标准与技术研究院(NIST)为加强对人工智能(AI)相关个人、组织和社会风险的管理,通过与私营和公共部门合作,制定《人工智能风险管理框架》。该框架将可信度考量纳入设计、开...
NIST《人工智能风险管理框架1.0》解读
关注我们带你读懂网络安全AI风险管理是开发和使用AI系统责任制度的关键组成部分。2023年1月26日,NIST发布NIST AI 100-1《AI风险管理框架1.0》(Artificial Intel...
5