Lasso Security的研究人员近日在代码存储库中发现了1681个暴露的Hugging Face API令牌,这使谷歌、Meta、微软和VMware等厂商面临潜在的供应链攻击。Lasso Sec...
LLMs安全:针对业务模型应用场景下提示词攻击的防御检测方案
引言近期OpenAI在DevDay上发布了GPTs功能,允许用户根据特定的需求创建和使用定制版的GPT模型并通过GPTs Store分享给其他用户使用,未来在大模型应用领域已经开始趋于由OpenAI这...
主流大语言模型集体曝出训练数据泄露漏洞
近日,安全研究人员发布的一篇论文给“百模大战”的生成式人工智能开发热潮浇了一盆冷水。研究发现,黑客可利用新的数据提取攻击方法从当今主流的大语言模型(包括开源和封闭,对齐和未对齐模型)中大规模提取训练数...
【资料】AI大模型与情报分析
今天给大家推送亚当·C和理查德·卡特撰写的《大型语言模型和情报分析》【导言】本文探讨了大型语言模型(LLM)的最新进展、主要限制和安全风险及其在情报界中的潜在应用。虽然大语言模型现在可以快速有效地完成...
LLMSecOps:在大语言模型时代提升安全性
引言随着人工智能技术的飞速发展,大型语言模型(LLMs)如GPT-4和PaLM-2已经成为了技术前沿的代表。这些模型不仅展示了人工智能在创造力和能力方面的巨大潜力,而且在处理复杂的语言任务时表现出了前...
基准发布 | 大语言模型(LLM)安全性测评基准
“大语言模型(LLM)安全性测评基准2023年8月15日国家六个部委发布的《生成式人工智能服务管理暂行办法》正式施行,该办法强调了大语言模型安全的重要性,防止生成潜在隐私泄露、违法犯罪内容。为评估大语...
13