AI大模型与安全运营 大模型技术的出现,对于一线的安全运营人员来说,最关心的是这个技术如何能落地,在日常的安全运营工作中如何让大模型技术发挥作用,提高工作的效率。对安全运营人员来说...
论文推荐 | 借助大语言模型GPT-4辅助恶意代码动态分析
2023年是大语言模型发展的元年,许多大语言模型崭露头角,以ChatGPT为首的生成式对话模型已然成为人工智能领域的研究热点,引领着自然语言处理技术不断发展。得益于大语言模型在多项语言任务和实际应用上...
大语言模型面临的威胁—概览
本系列文章,主要是从外部威胁者视角下讲述大语言模型及大语言模型相关应用面临的威胁,以及一些建议,助力大语言模型健康发展。前言 2023年最火的公司无疑是openai,最火的产品也无疑是c...
大语言模型系统安全综述
今天为大家介绍一篇由中关村实验室和清华大学共同完成的大模型安全综述“Risk Taxonomy, Mitigation, and Assessment Benchmarks of Large Lang...
分享照片有风险!斯坦福大学新AI模型可根据照片快速定位
生成式人工智能的飞速发展正在不断制造新的个人隐私焦虑,例如语音和人脸样本的泄露可被用于深度伪造和网络钓鱼等犯罪活动。近日,斯坦福大学公布了一种新的AI模型,可以根据用户在社交媒体上分享的环境照片快速定...
专题解读 | ICLR2024图与大语言模型结合论文介绍
这次分享两篇近期在ICLR2024投稿的图与大语言模型结合的论文。一、Thought Propagation第一篇论文名为《Thought Propagation: An Analogical App...
Hugging Face API令牌暴露,大批生成式AI模型岌岌可危
Lasso Security的研究人员近日在代码存储库中发现了1681个暴露的Hugging Face API令牌,这使谷歌、Meta、微软和VMware等厂商面临潜在的供应链攻击。Lasso Sec...
LLMs安全:针对业务模型应用场景下提示词攻击的防御检测方案
引言近期OpenAI在DevDay上发布了GPTs功能,允许用户根据特定的需求创建和使用定制版的GPT模型并通过GPTs Store分享给其他用户使用,未来在大模型应用领域已经开始趋于由OpenAI这...
主流大语言模型集体曝出训练数据泄露漏洞
近日,安全研究人员发布的一篇论文给“百模大战”的生成式人工智能开发热潮浇了一盆冷水。研究发现,黑客可利用新的数据提取攻击方法从当今主流的大语言模型(包括开源和封闭,对齐和未对齐模型)中大规模提取训练数...
【资料】AI大模型与情报分析
今天给大家推送亚当·C和理查德·卡特撰写的《大型语言模型和情报分析》【导言】本文探讨了大型语言模型(LLM)的最新进展、主要限制和安全风险及其在情报界中的潜在应用。虽然大语言模型现在可以快速有效地完成...
LLMSecOps:在大语言模型时代提升安全性
引言随着人工智能技术的飞速发展,大型语言模型(LLMs)如GPT-4和PaLM-2已经成为了技术前沿的代表。这些模型不仅展示了人工智能在创造力和能力方面的巨大潜力,而且在处理复杂的语言任务时表现出了前...
基准发布 | 大语言模型(LLM)安全性测评基准
“大语言模型(LLM)安全性测评基准2023年8月15日国家六个部委发布的《生成式人工智能服务管理暂行办法》正式施行,该办法强调了大语言模型安全的重要性,防止生成潜在隐私泄露、违法犯罪内容。为评估大语...
15