文章首发在:奇安信攻防社区https://forum.butian.net/share/4259总结了一些部署过程中出现可能的漏洞点位,并且分析了对应的攻防思路要想知道对应的大模型在本地部署过程中可能...
【Agents/MCP可能不存在了】No Agents, Just Python-use!
“物理学可能不存在了”这个是三体故事的开篇,而今天我讲的故事的开篇是:“Agents可能不存在了、MCP可能不存在了、工作流可能不存在了...”一只章鱼在几年前一群聪明的科学家发明了一种赛博物种,最开...
大模型与安全|第二弹:大模型AI Agent的工作原理与安全挑战
1、引言智能体(AI Agent)作为大语言模型技术(LLM)的具体应用形式,突破了传统语言模型仅限于文字输入与输出的局限性。其通过感知环境、规划决策及执行行动的闭环机制,实现了对现实世界任务的高效处...
Copilot总结Word长文档功能更新升级
当你打开一篇长长的Word文档,没有耐心看时,copilot早已帮你自动整理好摘要,放在了文章顶部:Copilot in Word自动摘要,想你所想🎉 今天copi再度更新,带着双重惊喜来啦:✅ 文档...
IDA Pro+MCP+DeepSeek逆向小实战:构建AI逆向分析
IDA Pro MCP: 让AI赋能逆向工程 IDA Pro集成MCP的小实战:构建DeepSeek智能逆向分析工作流 一、MCP简介 Model Context Protocol(MCP)作为Ant...
Google A2A协议,MCP的替代还是配合?
2025年4月9日,Google发布Agent2Agent (A2A)协议 ,旨在最大限度地发挥代理型人工智能的优势,使代理能够跨孤立的数据系统和应用程序,在动态的多代理生态系统中协作。即使代理是由不...
【大模型与安全】第三弹:LLM与 Fuzzing 技术在漏洞挖掘中的应用
随着大语言模型(下统称LLM)的兴起,其在软件安全测试领域的应用前景备受瞩目。传统模糊测试(下统称Fuzzing)依赖人工编写测试用例和规则,这种方法不仅耗时费力,还难以覆盖复杂的输入空间。而LLM凭...
AI安全之提示词绕过
“ AI安全。”看到了,关注一下不吃亏啊,点个赞转发一下啦,WP看不下去的,可以B站搜:标松君,UP主录的打靶视频,欢迎关注。顺便宣传一下星球:重生者安全, 里面每天会不定期更新OSCP知识点,车联网...
大模型驱动的多智能体协同初探
人工智能的浪潮中,大语言模型(LLM)已展现惊人潜力。但真正的变革才刚刚开始!未来属于大模型驱动的多智能体协同——这不仅是技术的延伸,更是智能范式的跃迁,将重塑我们解决复杂问题的方式,开启一个全新的智...
AI编程的暗礁:大模型包幻觉引发的软件供应链安全风险
德克萨斯大学圣安东尼奥分校(UTSA)团队在2025年USENIX安全研讨会发表的研究,首次系统性揭示了大语言模型(LLM)代码生成中的"包幻觉"(Package Hallucination)威胁。通...
Copilot 上线深度推理智能体 Researcher
近日,微软推出两款首创的工作场景推理智能体:Researcher(研究员)和Analyst(分析师)。它们能以安全合规的方式访问您的工作数据(包括邮件、会议、文件、聊天记录等)及互联网信息,通过分析海...
大语言模型权限泛滥:自主性失控带来的安全风险
要使AI代理能够"思考"并自主行动,必须赋予其自主权(agency),即允许其与其他系统集成、读取分析数据并执行命令。但随着这些系统获得对信息系统的深度访问权限,人们越来越担忧其权限过度扩张——当这些...
88