最近,网络安全领域面临着一个新的令人生畏的现实问题——恶意生成式人工智能的兴起,如FraudGPT和WormGPT。这些不法产品潜伏在互联网的黑暗角落,对数字世界的安全构成了独特的威胁。本文将探讨生成...
谷歌开源人工智能辅助模糊测试框架
为了帮助开发人员和研究人员更快地发现漏洞,谷歌发布了开源的人工智能辅助模糊测试框架。该工具利用大型语言模型 (LLM) 为现实世界的 C 和 C++ 项目生成模糊目标,并使用 Google 的 OSS...
Google 提供基于AI的模糊测试框架
人工智能驱动的 OSS-Fuzz 工具可以帮助发现漏洞,并与自动修补管道相结合。模糊测试可以成为找出软件中零日漏洞的宝贵工具。为了鼓励开发人员和研究人员使用它,谷歌周三宣布,免费提供其模糊测试框架OS...
Galah:一款功能强大的LLM驱动型OpenAI Web蜜罐系统
关于GalahGalah是一款功能强大的Web蜜罐,该工具由LLM大语言模型驱动,基于OpenAI API实现其功能。 很多传统的蜜罐系统会模拟一种包含了大量网络应用程序的网络系统,但这...
对抗机器学习(AML)攻击没有万能解决方案
对抗性机器学习(AML)涉及提取有关机器学习系统的特征和行为的信息,并操纵输入以获得期望的结果。日前,美国国家技术与标准研究院(NIST)发布了一份关于AML的指南,记录了针对人工智能(AI)系统的各...
AIGC时代的多模态知识图谱构建与应用 | TF99回顾
1月18日,CCF TF第99期“AIGC时代的多模态知识图谱构建与应用”以线上会议形式成功举办。本次活动由CCF TF知识图谱SIG策划呈现,邀请了阿里、蚂蚁等互联网企业的代表,以及来自哈尔滨工业大...
大型语言模型会彻底改变国家安全吗?
如今,像 ChatGPT 这样的大型语言模型(LLM)的横空出世,让众多观察家惊叹不已。难道主算法,或至少它的原始形态,已经被发现了吗?ChatGPT以及它的兄弟姐妹们,展现出了在各类应用场景中的巨大...
网络安全人士必知的人工智能对抗模型MITRE ATLAS
点击上方蓝色字体关注,了解更多网络安全知识图片由通义万相绘制MITRE ATLAS™(人工智能系统的对抗威胁格局)是一个关于机器学习 (ML) 系统的对手战术、技术和案例研究的知识库,基于现实世界的观...
警报:大模型正叩响内容安全大门
随着大语言模型在各领域的广泛应用其潜在风险和威胁逐渐凸显不准确或误导性信息引发的「内容安全」正成为无法忽视的安全隐忧↓不公平性与偏见对抗性攻击恶意代码生成以及安全漏洞利用持续发出风险警报* 2023年...
企业面临的四大 LLM (大型语言模型)威胁
Michael Bray是温哥华诊所的CISO,他认为大型语言模型(LLM)在改善医疗条件方面具备着无限可能,在他看来,基于 DNA 的预测研究、新陈代谢相互作用、实验室服务、诊断和其他医学将因LLM...
大模型安全:Prompt Injection与Web LLM attacks
文末抽奖嗷Prompt Injection大语言模型(英文:Large Language Model,缩写LLM)中用户的输入称为:Prompt(提示词),一个好的 Prompt 对于大模型的输出至关...
警报:大模型正叩响内容安全大门
随着大语言模型在各领域的广泛应用其潜在风险和威胁逐渐凸显不准确或误导性信息引发的「内容安全」正成为无法忽视的安全隐忧↓不公平性与偏见对抗性攻击恶意代码生成以及安全漏洞利用持续发出风险警报* 2023年...
44