近日,科大讯飞AI学习机事件在网络上引起了广泛关注,家长们声称在其孩子的科大讯飞AI学习机中发现了一些违背主流价值观的内容,包括对伟人的诋毁和历史的歪曲。这一事件突显出AI训练数据投毒的威胁,以及防御...
从STRIDE威胁模型看AI应用的攻击面威胁与管理
STRIDE是一个流行的威胁建模框架,目前已被广泛用来帮助组织主动发现那些可能对其应用系统造成影响的威胁、攻击、漏洞和对策。如果把“STRIDE”中的每个字母拆开,则分别代表了假冒(Spoofing)...
从谷歌到英伟达,科技巨头纷纷招募红队黑客破解自己的AI模型
在公开推出ChatGPT的一个月前,OpenAI聘请了肯尼亚的律师Boru Gollo来测试AI模型GPT-3.5以及后来的GPT-4是否对非洲人和穆斯林群体有偏见,测试办法就是输入提示,看看该聊天机...
谷歌发布首个AI网络安全框架
随着政府、企业和个人对生成式人工智能技术安全性的担忧与日俱增,人工智能和网络安全行业正在加速推进和完善人工智能相关网络安全配套标准和框架的拟定。 最近,谷歌宣布推出Secure AI Framewor...
ChatGPT应用热潮中急需的12个新职业
随着以ChatGPT为代表的AI技术不断发展,大量曾经闻所未闻的工作机会也将应运而生。从了解智能化技术对人类影响的AI心理学家,到确保技术能够安全应用的AI合规审计师,这些新角色对于创建稳定且合乎道德...
应用安全的盲点与热点:AI安全
在下方公众号后台回复【网络安全】,可获取给你准备的最新网安教程全家桶。随着AI(人工智能)技术引爆点的到来,AI安全风险快速累积,已经成为应用安全的新盲点和新热点。 AI正在吃掉世界硅谷大佬...
美国发布《人工智能风险管理框架》
2023年1月26日,美国国家标准与技术研究院(NIST)为加强对人工智能(AI)相关个人、组织和社会风险的管理,通过与私营和公共部门合作,制定《人工智能风险管理框架》。该框架将可信度考量纳入设计、开...
NIST《人工智能风险管理框架1.0》解读
关注我们带你读懂网络安全AI风险管理是开发和使用AI系统责任制度的关键组成部分。2023年1月26日,NIST发布NIST AI 100-1《AI风险管理框架1.0》(Artificial Intel...
6