随着网络威胁的复杂性与日俱增,传统的基于规则和机器学习的流量分析方法难以应对新兴威胁的多样化和高级性。大语言模型(LLM, Large Language Model)在自然语言处理领域展现了强...
人工智能——根据正确的用例实施正确的技术
如果说 2023 年和 2024 年是围绕 AI 进行探索、炒作和兴奋的一年,那么 2025 年(和 2026 年)将是各组织开始关注 AI 最有效实施的具体用例的一年,更重要的是,了解如何实施护栏和...
谷歌人工智能模糊测试工具AI OSS-Fuzz在开源项目中发现 26 个漏洞
导 读谷歌透露,其人工智能模糊测试工具 OSS-Fuzz 已被用于帮助识别各种开源代码存储库中的 26 个漏洞,包括 OpenSSL 加密库中的一个中等严重程度的漏洞。谷歌开源安全团队在一篇博客文章中...
谷歌 AI Fuzz 工具 OSS-Fuzz 发现 26 个零日漏洞
谷歌透露,其人工智能驱动的模糊测试工具 OSS-Fuzz 已被用于帮助识别各种开源代码存储库中的 26 个漏洞,包括 OpenSSL 加密库中的一个中危漏洞。“这些特定的漏洞代表了自动化漏洞挖掘的一个...
网安趋势?谷歌宣布AI首次发现内存安全漏洞
近日,谷歌宣布其大语言模型(LLM)项目“Big Sleep”成功发现了一个SQLite数据库引擎中的内存安全漏洞,这是人工智能首次在真实软件中发现可利用的内存安全漏洞(且该漏洞无法通过传统的模糊测试...
开源AI爬虫工具
看有人发了个这个项目,简单试用了发现确实好用,项目ScrapeGraphAI 是LLM 和图形驱动的 Web 抓取 Python 库,使用大模型为网站和本地文档(XML,HTML,JSON 等)创建自...
vulnhuntr:基于大语言模型和静态代码分析的漏洞扫描与分析工具
关于vulnhuntr vulnhuntr是一款基于大语言模型和静态代码分析的安全漏洞扫描与分析工具,该工具可以算得上是世界上首款具备自主AI能力的安全漏洞扫描工具。 Vulnhuntr 利用 LLM...
浅谈大模型辅助漏洞挖掘
目录一、前 言 二、函数级别漏洞检测 三、代码库级别漏洞检测 四、未来研究方向 五、总 结 一前 言大语言模型(LLM)近期成为安全研究和竞赛中的热门话题,涵盖了大模型在安全领域的...
DataCon晚自习:浅谈大模型辅助漏洞挖掘
目录一、前 言二、函数级别漏洞检测三、代码库级别漏洞检测四、未来研究方向五、总 结一前 言大语言模型(LLM)近期成为安全研究和竞赛中的热门话题,涵盖了大模型在安全领域的应用以及自身的安全性等方...
【论文速读】| 通过良性数据镜像对大语言模型进行隐蔽越狱攻击
基本信息原文标题:Stealthy Jailbreak Attacks on Large Language Models via Benign Data Mirroring原文作者:Honglin M...
AI大模型用于Fuzzing测试
这两年,随着大模型代码能力的增强,很多公司已经在采用大模型编写代码,大大提升效率。大模型虽然代码写得快,但写的代码并不安全,很多甚至不如成熟程序员写的代码。一方面,代码生成速度大幅提升,另一方面,代码...
[译文] LLM安全:4.绕过 Azure AI 内容安全防护措施(字符注入和对抗机器学习)
“2024年4月28日是Eastmount的安全星球 —— 『网络攻防和AI安全之家』正式创建和运营的日子,该星球目前主营业务为 安全零基础答疑、安全技术分享、AI安全技术分享、AI安全论文交流、威胁...
41