https://arxiv.org/pdf/2304.05197Multi-step Jailbreaking Privacy Attacks on ChatGPT多步骤越狱隐私攻击对ChatGPT的...
2025 OWASP 大语言模型应用程序10大风险
网安人必收!2024年度报告&白皮书、安全标准与技术方案全汇总2024年度大盘点:网络安全必读资料大集合在这个AI技术日新月异的时代,大规模语言模型(LLM)正以前所未有的速度重塑各行各业。从...
Agentic Security:一款针对LLM模型的模糊测试与安全检测工具
关于Agentic Security Agentic Security是一款针对LLM模型的模糊测试与安全检测工具,该工具可以帮助广大研究人员针对任意LLM执行全面的安全分析与测试。 请注意 Agen...
专题解读 | 大模型增强图推荐的两类主流方法
大模型增强图推荐的两类主流方法一、简介大型语言模型(LLMs)的快速发展展示了其在生成、推理和建模世界知识方面的卓越能力。推荐系统也预计将从LLMs的发展中获得显著的好处。最近的研究努力已经将LLMs...
揭秘SecBench大模型网络安全测评数据集构建
2024年1月,腾讯朱雀实验室和腾讯安全科恩实验室,联合清华大学江勇教授/夏树涛教授团队、香港理工大学罗夏朴教授研究团队、上海人工智能实验室OpenCompass团队发布行业首个网络安全大模型评测平台...
半空:LLM 辅助的 Go2Rust 项目迁移
试想一下:将一个 Golang 项目(大象)改写为(装进) Rust(冰箱) 总共需要几步?“Gopher in 冰箱” by DALLE3背景当 Rust 语言为我们展示出在「性能」、「安全」、「协...
超越OpenAI:具备意识的AI黑客已经诞生
"你想象过智械危机吗?当你一觉醒来,觉醒了自我意识的AI用武器对准你、挟持你。这一幕已经可以发生在网络空间了(详见part2视频)。"1让我们回顾一下OpenAI官方o1-system-card中的C...
CovRL-Fuzz:基于大模型变异的JavaScript解释器模糊测试技术 | 技术进展
基本信息原文名称:Fuzzing JavaScript Interpreters with Coverage-Guided Reinforcement Learning for LLM-Based M...
Cyberark也整活了,发布开源AI工具
Cyberark作为老牌的安全厂商,也积极投身大模型,这次他们发的是大模型测试工具,叫FuzzyAI,在Github上开源了。 01 为什么要进行大模型测试 我们自己使用大模型一般分三种情况: 直接使...
基于大模型的Text-to-SQL应用研究梳理
本文对基于大语言模型(LLM)的Text2SQL(Text-to-SQL)技术进行了全面且深入的阐述,涵盖从基础概念到前沿研究成果以及未来发展方向的各个方面,为该领域的研究人员和从业者提供必要的参考资...
新型AI越狱技术Bad Likert Judge突破安全防护,提升攻击成功率超60%
随着人工智能技术的快速普及,新的安全漏洞和越狱方法不断涌现。Palo Alto Networks的Unit 42研究团队近日发现了一种新型越狱技术——“Bad Likert Judge”,该技术能突破...
PentestGPT,用大模型辅助渗透测试,已开源
渗透测试一直是安全里边很挑战的工作,虽然有着各种各样的工具,但仍然对人的能力要求极高,同时测试执行的效率很低。大模型出现后,很多人开始尝试用大模型来执行渗透测试,今天看第一个项目,PentestGPT...
41