前文探索了利用大模型辅助恶意代码分析,即LLM赋能Lark工具提取XLM代码的抽象语法树。这篇文章将继续尝试探索利用大模型辅助恶意代码分析,尝试进行恶意代码家族分类实验。在恶意代码分析过...
AI风险分析 | 攻击组织在多个AWS租户环境劫持LLM模型
背景随着AI技术的迅速发展,以人工智能即服务(AIaaS) 为代表的云化服务也开始被广泛使用,高价值算力集群的“诱惑”,让攻击者的“矛头”直指各类AIaaS服务。以JINX-2401为代表的组织,正在...
DeepSeek-R1展示了小模型也能成为推理专家
编者按和大家一样,春节假期期间,公号君也高度关注DeepSeek的技术表现。作为一名研究法律政策的人员,当然也关注其可能带来的潜在影响。今天是本系列的开篇。最近,DeepSeek团队发布了其最新的AI...
紧急告警!Meta Llama框架漏洞,AI系统面临远程代码执行风险
2024年9月,一位安全研究员在测试Meta的Llama框架时,意外发现了一个严重的安全漏洞。这个漏洞不仅威胁到了人工智能系统的安全性,还可能引发更广泛的网络安全问题。今天,我们就来深入探讨这个漏洞的...
LLM的万能钥匙
2024年2月,新加坡南洋理工大学的研究人员在一项他们称之为“越狱”的实验中成功破解了多个 AI 聊天机器人,包括 ChatGPT、Google Bard 和 Bing Chat。而越狱是利用系统软...
看不见的AI安全威胁,揭秘隐形提示注入风险
在人工智能蓬勃发展并融合到各行各业的当前,一种新型的威胁正悄然蔓延:隐形提示注入攻击。这种看不见的攻击手段,利用了用户肉眼无法识别的特殊字符,悄无声息地影响着大语言模型的行为。它就像一个隐藏在阴影中的...
LLM的万能钥匙
2024年2月,新加坡南洋理工大学的研究人员在一项他们称之为“越狱”的实验中成功破解了多个 AI 聊天机器人,包括 ChatGPT、Google Bard 和 Bing Chat。而越狱是利用系统软...
AI安全 | 大语言模型的安全与隐私调查
大语言模型(LLM)具有语言理解能力、类人文本生成能力、上下文感知能力和强大的问题解决能力,这使其在各个领域(如搜索引擎、客户支持和翻译)都具有重要价值。本文将探讨LLM如何对安全和隐私产生积极影响,...
越狱攻击让LLM驱动的机器人分分钟上演灾难大片
LLM 驱动的机器人成了新一代“调皮小子”,一旦遭遇恶意攻击,不是追着电线杆绕圈就是制造现实版“交通大乱斗”,分分钟让你见识到什么叫潜在危险。看起来,想要管好这些“大脑聪明、行为离谱”的家伙,还真得费...
LLMSecOps|LLM和GenAI的安全解决方案
如果你也想在网络安全上全栈,点击下方名片关注我,助你离目标更近一步!引言:随着生成式AI的采用、使用和应用程序开发的增长,新的安全风险也随之而来,影响着企业或组织的战略规划和投资。当然,对应的消减方案...
【极思】安全运营第6年实践总结
前言 感谢还在关注的你们,比心。跟大家说声抱歉,原计划发总结后发各模块的实践,但由于公司调整+孩子上小学+风控更严格等原因,2024年共发了2篇文件,创下近7年最少。好在质量很不错,感谢同学们捧场阅读...
基于大模型(LLM)的黑盒RCE漏洞挖掘
简介远程代码执行(Remote Code Execution,RCE)漏洞是最危险的网络安全漏洞之一,攻击者可以通过此类漏洞远程执行任意代码,进而控制目标系统。由于RCE漏洞的危害性极大,因此发现和修...
41