根据EndorLabs的数据,开源在AI技术堆栈中发挥着越来越重要的作用,但大多数项目(52%)引用了存在已知漏洞的易受攻击的依赖项。EndorLabs在最新的《软件依赖管理状态报告》声称,在发布仅五...
宫廷玉液酒查1450?但AI已经防不住了
随着人工智能的进一步应用,我们可能很快就会看到它们生产恶意软件或攻击方面的“杰出贡献”。著名网络安全专家Mikko Hypponen表示,人工智能被利用加强破坏性网络行为几乎是不可避免的。随着攻击者开...
IBM:2023年数据泄露的成本知多少?
最近,IBM发布了最新版的《2023 年数据泄露的成本》,IBM官方信息显示, 2023 年全球数据泄露平均成本已经上升至445 万美元,成为历史新高,比过去 3 年增长了 15%。检测和升级成本在同...
研究人员戳穿了 ChatGPT 和其他聊天机器人安全控制的漏洞(外媒编译)
编者按关于LLMs(大型语言模型)的风险和监管,本公号发布过以下文章:ChatGPT是网络上的一个模糊的JPEG文件(外专观点)ChatGPT是如何劫持民主进程(外专观点)ChatGPT:欧洲禁止Re...
大语言模型的七大应用风险
随着基于大语言模型的生成式人工智能的企业和消费应用快速发展,其安全风险已经开始快速累积。我国不久前刚刚颁布的《生成式人工智能服务管理暂行办法》明确规定了生成式人工智能服务不得侵犯个人隐私、知识产权、商...
人工智能信任、风险和安全
微信公众号:计算机与网络安全附:人工智能信任、风险和安全.pdf原文始发于微信公众号(计算机与网络安全):人工智能信任、风险和安全
谷歌成立红队测试针对人工智能系统的攻击
谷歌创建了一个专注于人工智能(AI)系统的红队,并发布了一份报告,概述了常见的攻击类型和吸取的教训。该公司在推出安全人工智能框架( SAIF )几周后宣布成立人工智能红队,该框架旨在为人工智...
【资料】AI国防应用
2022年3月3日至4日,PRIO组织了人工智能和战争转型问题国际会议:南亚及其后的视角确保信任如何使用人工智能仍然是我们的集体责任。算法透明度是建立这种信任的关键。问责制同样重要。我们必须保护...
欧洲的人工智能监管困局与焦虑
近期,来自不同政治派别的11位欧洲议会议员发出一封公开信,呼吁行业、研究人员和决策者更加关注“非常强大的人工智能”的潜在危险。鉴于当前人工智能技术的快速发展,欧洲有不少人担心欧盟的监管政策跟不上技术发...
基于人工智能的知识图谱构建技术要求
微信公众号:计算机与网络安全附:基于人工智能的知识图谱构建技术要求.pdf原文始发于微信公众号(计算机与网络安全):基于人工智能的知识图谱构建技术要求
人工智能时代的云安全
人工智能和机器学习 (ML)彻底改变了云计算,提高了效率、可扩展性和性能。它们通过预测分析、异常检测和自动化来改善运营。然而,人工智能的日益普及和可及性也使云计算面临更广泛的安全风险。人工智能工具的更...
【资料】开源情报调查人员用人工智能(AI)(ChatGPT)打击散布信息和伪造评论的实用指南
ChatGPT是目前最流行的人工智能(AI),它使用大型语言模型(大语言模型)。它也是第一个获得大量关注、吸引力和资金的开源项目之一。但尽管有这些里程碑,微软和谷歌等科技巨头正在开始推出类似的技术。 ...
112