引言随着人工智能(AI)技术的飞速发展,大型语言模型(LLM)如GPT系列、DeepSeek、Gemini、Grok等已在自然语言处理、内容生成和智能决策等领域展现出惊人潜力。然而,技术进步的同时,安...
Centos本地安装ollama
1 前言Ollama 是一个简单易用的本地大语言模型运行工具,旨在让用户快速在本地环境中部署和运行如 Llama 2、Llama 3 等流行的开源大语言模型。Ollama 提供了简洁的命令行接口(CL...
GMoE| 大模型优化密钥:GMoE 用图神经网络破解 MoE「冷热失衡」
大模型微调新范式!GMoE 如何用 GNN 重构大模型 MoE 的负载均衡体系?个研究摘要:作为大模型领域首个融合图神经网络(GNN)的MoE优化框架,北邮百家AI团队为专家系统搭建「MoE协作网络」...
GitHub MCP 漏洞:通过 MCP 访问私有仓库
我们展示了 GitHub 官方 MCP 服务器的一个严重漏洞,该漏洞允许攻击者访问私有存储库数据。该漏洞是 Invariant 用于检测恶意代理流的安全分析器首次发现的漏洞之一。Invariant 发...
样本对抗-Webshell隐匿之通用大模型致幻
前言:该示例中部分样本已失效,该内容仅用于学习、研究请勿用于非法1、主题原称为《模型对抗-Webshell隐写之通用大模型致盲》后更改为《样本对抗-Webshell隐匿之通用大模型致幻》2、因存在某些...
LLM自主学习的隐患
点击上方“蓝色字体”,选择 “设为星标”关键讯息,D1时间送达!大型语言模型借助新协议(如MCP、A2A)获得强大自主能力,深入企业核心业务流程,然而,其过度自主性(功能冗余、权限过大、模型黑箱、训练...
ChatGPT隐私保护
点击WEB界面右上角头像,在Settings中检查如下各项Gerneral Archived chats Manage Delete all chats Delete allPerso...
聊聊OpenAI模型不听人类指挥拒绝执行关闭指令
好久不见,各位亲们可安好?2025年5月,美国AI安全机构帕利塞德研究所宣称,在人类专家已经下达明确指令的情况下,o3多次出现破坏关闭机制以阻止自己被关闭的情况。该研究所说:“据我们所知,这是AI模型...
Angr对付OLLVM Bogus Control Flow/虚假控制流
创建: 2025-05-28 17:14 更新: 2025-06-03 14:31 链接: https://scz.617.cn/unix/202505281714.txt 目录: ☆ 背景介...
MCP重绑定攻击
Straiker AI Research (STAR) 团队发现了一种新的攻击,我们称之为 MCP 重绑定攻击,它是 DNS 重绑定和基于服务器发送事件 (SSE) 协议的 MCP 的组合。简单说,我...
再学学大模型MCP间接提示词注入攻击
前面的文章研究了MCP工具本身的投毒攻击,本篇文章尝试另外的一种利用MCP间接通过提示词注入大模型的的攻击方法。学习一下MCP工具投毒攻击手法原理主流的基于大模型的攻击无非就是各种姿势进行提示词注入,...
MCP的Streamable HTTP传输层全解读
01.开篇模型上下文协议(MCP)为智能体/模型与工具之间通信定义了协议标准。25年3月26日,Claude MCP官方引入了一种新的通信机制 Streamable HTTP,相比原有的HTTP+SS...
87