本次分享论文:SEAS: Self-Evolving Adversarial Safety Optimization for Large Language Models基本信息原文作者: Muxi D...
大模型文件的中毒攻击与防护
大模型文件的 中毒攻击与防护 人工智能的安全性问题由来已久,大模型本质上作为人工智能系统,也存在相应的安全问题。OWASP Top 10 for Large Language Model Applic...
来自大型语言模型的威胁
简介: 大型语言模型(LLMs)极易受到操纵,因此必须将其视为系统中的潜在攻击者。LLMs 在我们的日常生活中变得非常流行,并发挥着许多功能。有点想法的的软件公司都将人工智能(AI)整合到其...
通用嵌套越狱提示可轻松骗过大型语言模型
招新小广告CTF组诚招re、crypto、pwn、misc、合约方向的师傅,长期招新IOT+Car+工控+样本分析多个组招人有意向的师傅请联系邮箱 [email protected](带上简历和想加入的...
【论文速读】| LLMCloudHunter:利用大语言模型(LLMs)从基于云的网络威胁情报(CTI)中自动提取检测规则
本次分享论文:LLMCloudHunter: Harnessing LLMs for Automated Extraction of Detection Rules from Cloud-Based ...
【论文速读】| 涟漪下的漩涡:对启用RAG的应用程序的实证研究
本次分享论文:Vortex under Ripplet: An Empirical Study of RAG-enabled Applications基本信息原文作者:Yuchen Shao, Yuh...
让LLM“遗忘”特定知识
一. 综述 随着大规模语言模型(Large Language Models, LLMs)的广泛应用,隐私问题日益凸显。这些模型在训练过程中难免会记住并泄露敏感信息,如个人身份信息等。为此,反学习(Un...
【论文速读】| JADE:用于大语言模型的基于语言学的安全评估平台
本次分享论文:JADE : A Linguistics-based Safety Evaluation Platform for Large Language Models基本信息原文作者:Mi Zh...
一篇大模型Agent工具使用全面研究综述
使用大型语言模型(LLMs)进行工具学习已成为增强LLMs能力以解决高度复杂问题的一个有希望的范式。尽管这一领域受到越来越多的关注和快速发展,但现有的文献仍然分散,缺乏系统性的组织,为新来者设置了进入...
【论文速读】|利用大语言模型实现现实世界代码的翻译:一项针对翻译到Rust语言的研究
本次分享论文:Towards Translating Real-World Code with LLMs: A Study of Translating to Rust基本信息原文作者:Hasan F...
ChatRule—基于LLM挖掘KG中的逻辑规则
一. 引言在本文中,我们提出了一个新的框架 ChatRule,提升LLM在知识图谱上挖掘逻辑规则的能力。具体而言,该框架以基于 LLM 的规则生成器为起点,利用 KGs 的语义和结构信息来促使 LL...
【论文速读】|当LLM遇见网络安全:系统性文献综述
本次分享论文:When LLMs Meet Cybersecurity: A Systematic Literature Review基本信息原文作者:Jie Zhang, Haoyu Bu, Hui...
7