文章来源:https://media.defense.gov/2024/Apr/15/2003439257/-1/-1/0/CSI-DEPLOYING-AI-SYSTEMS-SECURELY.PDF本...
AI安全:36种AI攻击手法与五种AI安全策略
前几天看到刺总公司发起了国内第一份AI安全法律的起草议案和两会也在谈论关于AI安全的研究培养,但发现有关AI安全攻击介绍的资料实在太少,索性自己翻阅国内外各大资料进行了分析总结在此介绍一系列针对AI模...
保护AI
写在前面:本文共包括三篇文章,分别是保护AI;生成式AI:云安全的未来;暴露面管理和攻击面管理的区别。有关AI的知识很有趣,以前了解的不多,翻译过程中也查了一些资料,算是初窥门径吧。第一篇文章的重点还...
AI 人工智能面临哪些攻击威胁?
对于这个问题,咱先问问 GPT 的回答:人工智能(AI)系统面临多种安全威胁,这些威胁可能会影响 AI 的性能、可靠性和安全性。以下是一些主要的攻击威胁:数据污染攻击(Data Poisoning A...
【公益译文】对抗性机器学习与网络安全:风险、挑战和法律影响
全文共10889字,阅读大约需20分钟。 执行摘要 乔治城大学安全与新兴技术中心(CSET)和斯坦福网络政策中心地缘政治、技术和治理项目曾召集过一次专家研讨会,探究人工智能(AI)系统中的漏洞与传统类...
全球首个AI蠕虫面世:可在AI系统之间自动传播
关注我们带你读懂网络安全研究人员开发出首个第一代生成式AI蠕虫,名为 “Morris II”,它能够自动在AI系统之间传播。这种新型网络攻击,让人回忆起1988年对互联网造成重大破坏的初代Morris...
Microsoft 发布 PyRIT - 生成式 AI 的红队工具
微软发布了一个名为PyRIT(Python风险识别工具的缩写)的开放访问自动化框架,用于主动识别生成式人工智能(AI)系统中的风险。这个红队工具旨在“使全球的每个组织都能够负责任地利用最新的人工智能进...
学术报告|构建可信任的AI系统:深度神经网络的形式化验证方法
浙江大学网络空间安全学院学术报告张欢 助理教授美国伊利诺伊大学香槟分校构建可信任的AI系统:深度神经网络的形式化验证方法2024年1月6日(周六)10:00腾讯会议:833-376-532https:...
DataCon2023AI安全赛道,冠军战队WP分享
由中国通信学会数据安全委员会指导,奇安信集团、清华大学网络研究院、北京市大数据中心、蚂蚁集团、腾讯安全大数据实验室、Coremail广东盈世、赛尔网络主办的DataCon大数据安全分析竞赛最终排名已揭...
人工智能领域的法律规制
随着人工智能技术在众多领域的应用,大量的用户数据被持续收集和处理。这使得数据与隐私权保护显得尤为重要。只有在确保用户数据安全和隐私权不被侵犯的前提下,AI技术才能获得广大用户的信任并得到广泛应用。数据...
英美网络安全局联合发布《安全AI系统开发指南》
保持清洁卫生美国和英国的网络安全组织:CISA(美国网络与基础设施安全局)和NCSC(英国国家网络安全中心)发布了一份名为《安全AI系统开发指南》的文件,旨在为利用人工智能(AI)的系统开发人员提供以...
威胁情报信息分享|美国、英国及16个国家的全球伙伴发布了有关开发安全人工智能(AI)系统的新指南
美国网络安全和基础设施安全局(CISA)表示:“这种方法强调对客户安全成果的所有权,拥抱彻底的透明度和问责制,并建立将安全设计作为首要任务的组织结构。”英国国家网络安全中心(NCSC)补充说,目标是提...
5