什么是MCP?一个可让AI取证智能体(Agent)装上三头六臂的USB接口(内含MCP服务器使用教程、大模型知识科普)

admin 2025年4月7日00:13:56评论22 views字数 7075阅读23分35秒阅读模式

什么是MCP?一个可让AI取证智能体(Agent)装上三头六臂的USB接口(内含MCP服务器使用教程、大模型知识科普)

【 前言 】

什么是MCP?、MCP Server? 这个关键词在最近很流行,MCP早在24年11月26日由Anthropic提出并开源。全称为:Model Context Protocol,中文译为:模型上下文协议。

什么是MCP?一个可让AI取证智能体(Agent)装上三头六臂的USB接口(内含MCP服务器使用教程、大模型知识科普)

来源Anthropic官网:https://www.anthropic.com/news/model-context-protocol

为了帮助大家建立LLM认知,我整理了大模型(LLM)相关概念的知识科普:

1. 模型架构与核心技术

什么是Transformer?

什么是MOE(专家混合)?

什么是Pretraining(预训练)?

2. 模型训练与优化

什么是微调?

什么是蒸馏?

什么是对齐?

什么是量化?

3. 输入输出处理

什么是Token?

什么是分词器(Tokenizer)?

什么是提示词(Prompt)以及提示工程?

什么是长文本处理?

4. 模型能力与应用

什么是LLM(大型语言模型)?

什么是多模态?

什么是具身智能?

什么是Function Calling(函数调用)?

5. 系统架构与扩展

什么是RAG(检索增强生成)?

什么是向量数据库?

什么是嵌入模型(Embedding Model)?

6. 评估与问题

什么是线索召回率?

什么是LLM的幻觉?

7. 多智能体与协作

什么是AI Agent?

什么是多智能体协作?

8. 上下文与记忆

什么是上下文?

......

(回答见文章末尾)

“ 人工智能(AI)终极目标是通用人工智能(AGI)

【 关于MCP的一切 】

什么是MCP?

MCP(Model Context Protocol ,模型上下文协议)由Claude(Anthropic)主导发布,是一个开放、通用且有共识的协议标准,它标准化了应用程序向大模型(LLM)提供上下文和工具的方式。允许通过标准化接口将智能体(Agent)连接到各种数据源和工具,从而扩展智能体(Agent)功能。

也解决大模型(LLM)与现有系统集成缓慢的问题,加速推动智能体(Agent)与现有服务的集成,让智能体(Agent)与真实世界数据(闭源数据、实时数据)产生交互,输出高质量内容,同时降低LLM幻觉现象。

其核心价值在于为AI应用构建类似“USB-C接口”的通用连接能力,解决传统大模型(LLM)交互方式中存在的幻觉问题数据孤岛高成本定制化(模型微调)和重复造轮子等问题。

类比理解: 可以把 MCP 想象成 AI 工具的“U盘”。我们知道,U盘可以存储各种文件,插入电脑后就能直接使用。类似地,MCP Server 上可以“插”上各种提供上下文的“插件”,LLM 可以根据需要向 MCP Server 请求这些插件,从而获取更丰富的上下文信息增强自身能力。比如我们可以让LLM去读取并分析本地的笔录和类案信息。

与 Function Tool(函数工具) 的对比: 传统的 Function Tool也可以为 LLM 提供外部功能,但 MCP 更像是一种更高维度的抽象。Function Tool 更多的是针对具体任务的工具,而 MCP 则提供了一种更通用的、模块化的上下文获取机制。

我认为MCP称之为模型上下文协议”,它的本意就是给大模型提供上下文的工具进行标准化的协议支撑,就像RAG(检索增强生成)通过检索知识库的文件相似度为大模型提供上下文信息的支撑一样,他们本质上是一样的,只不过前者是一种通用协议,为了规范给大模型提供上下文的工具而写的这么一个通用协议,后者是一种方法,因为大模型(LLM)缺乏获取外部信息的能力,所以Anthropic提供了一种标准协议MCP,让大家都可以按照这个标准来执行,简化AI应用的开发工作。

什么是MCP?一个可让AI取证智能体(Agent)装上三头六臂的USB接口(内含MCP服务器使用教程、大模型知识科普)

(MCP示意图:类似USB接口或者Tpye-c协议)

为什么会有MCP出现?

回答这个问题之前,我们先来看一下大模型的能力边界,大模型的根本缺陷在于静态知识边界和动态环境交互能力的缺失。

知识时效性不足:LLM的训练数据具有时间截点(如GPT-4基于2023年9月前的数据),无法获取最新信息(如2024年后的政策变化或实时市场数据)。

专业领域知识匮乏:模型对非公开数据(如企业内部文档、法律卷宗、医疗病例)缺乏覆盖,导致专业场景下回答准确性不足。

“幻觉”问题频发:由于生成机制基于概率预测而非事实检索,LLM易虚构不存在的信息(如错误的法律条文或虚构的科研成果)。

工具调用能力缺失:传统LLM无法直接操作外部系统(如数据库查询、API调用),需依赖人工编写中间代码进行桥接。

这些缺陷使得一般的大模型(LLM)难以满足我们的实际业务需求,例如在法律案件中自动完成某个卷宗分析生成侦查建议,或在金融领域实时整合市场数据输出投资策略。我们以Manus智能体为例(在之前一段时间特别出圈),它成功正源于突破了上述限制:通过集成股票实时数据并调用量化分析工具,最终实现投资策略的自动化生成。

过去AI应用落地缓慢,是因为大家都在开发自己生态插件或集成调用第三方API,写着重复冗余的代码,这样各种重复造轮子的案例有很多。

目前还没有一个AI取证智能体能完成案件侦办的全流程工作,也就是集成案件资料的输入卷宗、各类笔录、聊天数据、取证数据、电子数据取证数据等)然后自动输出案情分析报告案情概要、法律分析、时间轴、关键节点、诉讼分析和应对策略以及侦查建议)的功能。

但是MCP出来后,在取证产品应用开发方面,将成为取证智能体开发的“基础设施”,畅想一下在未来,我们可以通过应用程序去构建属于自己特定场景的智能体,比如帮你完成案件审查工作、帮你进行审讯辅助、帮你完成笔录报告撰写案件预研判工作等等,我们可以通过各个取证插件去制作自己的专属取证调查工具箱

MCP的价值是什么?

MCP 的核心优势:

标准化: MCP 提供了统一的接口和数据格式,使得不同的 LLM 和上下文提供者可以无缝协作。

模块化: MCP 允许开发者将上下文信息分解为独立的模块(插件),方便管理和复用。

灵活性: LLM 可以根据自身需求动态选择所需的上下文插件,实现更智能、更个性化的交互。

可扩展性: MCP 的设计支持未来添加更多类型的上下文插件,为 LLM 的能力拓展提供了无限可能。

(内容参考:https://docs.cherry-ai.com/question-contact/knowledge#shen-me-shi-mcpmodel-context-protocol

另外我觉得有两个价值是显而易见的:

1、丰富大模型上下文信息,提升模型上下文质量(降低幻觉,增强推理)。

2、替换碎片化的Agent代码集成,通过建立通用标准,取证厂商推出AI取证插件,智能体开发者构建强大的AI智能体。简化智能体开发者集成第三方工具的难度,从而加速智能体AI取证应用开发效率,让开发者更专注于实际业务的开发。

电子取证行业的影响层面,MCP至少推动了以下变革:

取证智能体开发效率提升:标准化协议使工具集成成本降低70%以上,通过模块化和可拓展化的工具,让取证智能体开发者可专注于业务逻辑挖掘而非接口适配。

生态协同增强:形成类似“取证调查插件市场”的MCP Server生态,企业可共享工具服务(如某某取证厂商的“聊天数据解析工具”、“笔录分析工具”可被其他智能体复用)。

一些长尾场景覆盖:一些简单重复的场景无需自己开发全套工具链,通过调用专用的MCP Server即可构建专业的调查分析应用。    ·

MCP的工作原理?

MCP架构:MCP 的核心遵循客户端-服务器架构,其中主机应用程序可以连接到多个服务器:

什么是MCP?一个可让AI取证智能体(Agent)装上三头六臂的USB接口(内含MCP服务器使用教程、大模型知识科普)

(官网介绍:MCP架构图)

MCP 主机:希望通过 MCP 访问数据的AI取证分析应用程序(如美亚、、效率源、龙信、睿海、弘连等等推出的AI工具)

MCP 客户端:与服务器保持 1:1 连接的协议客户端

MCP 服务器:轻量级程序,每个程序都通过标准化的模型上下文协议公开特定功能

本地数据源:MCP 服务器可以安全访问的计算机文件、数据库和服务

远程服务:MCP 服务器可以连接到的互联网(例如,通过 API)提供的外部系统

具体操作大模型(LLM)根据MCP Server 提供的信息来决定是否调用某个服务,然后通过 Function Calling (函数调用)来执行函数。所以选择大模型时要选择支持Function Calling(函数调用)的大模型,国内的Qwen、DeepSeek、豆包都可以用。Function Calling 代表模型调用外部工具的能力,一般有一个小扳手标志的模型就可以。

常见函数调用模型列表

什么是MCP?一个可让AI取证智能体(Agent)装上三头六臂的USB接口(内含MCP服务器使用教程、大模型知识科普)
(更多请访问:https://docs.cherry-ai.com/other/models-info)

MCP核心架构?

MCP 遵循客户端-服务器架构,其中,主机是启动连接的 LLM 应用程序(如 Claude Desktop )客户端在主机应用程序内与服务器保持 1:1 连接服务器向客户端提供上下文、工具和提示

什么是MCP?一个可让AI取证智能体(Agent)装上三头六臂的USB接口(内含MCP服务器使用教程、大模型知识科普)
(官网介绍:MCP架构示意图)
来源官网说明:https://modelcontextprotocol.io/docs/concepts/architecture

【 如何使用MCP教程】

Cherry Studio MCP使用教程

01安装关键环境依赖

我还是以 Cherry Studio 为例,我们先打开设置,安装两个环境依赖,这里直接参考 Cherry Studio 官方说明文档

参考地址:https://docs.cherry-ai.com/advanced-basic/mcp

这里要说明下:windows系统Cherry Studio 客户端自动安装依赖会有80%的概率安装失败。

什么是MCP?一个可让AI取证智能体(Agent)装上三头六臂的USB接口(内含MCP服务器使用教程、大模型知识科普)

所以我推荐直接到Github上下载,下载好后放入对应的文件夹就行,对应文件夹如下图所示,没有就创建一个。

什么是MCP?一个可让AI取证智能体(Agent)装上三头六臂的USB接口(内含MCP服务器使用教程、大模型知识科普)
什么是MCP?一个可让AI取证智能体(Agent)装上三头六臂的USB接口(内含MCP服务器使用教程、大模型知识科普)
下载好后放入对应的文件夹就行,对应文件夹如下图所示,没有就创建一个。安装完成后,重启客户端,这里显示绿色的勾就行,就证明安装成功了。
什么是MCP?一个可让AI取证智能体(Agent)装上三头六臂的USB接口(内含MCP服务器使用教程、大模型知识科普)

02配置MCP服务器

我们先配置一个可以获取URL地址的服务器,点击添加服务器,输入以下参数,点击保存,即可添加成功

名称:fetch-server类型:STDIO命令:uvx参数:mcp-server-fetch
什么是MCP?一个可让AI取证智能体(Agent)装上三头六臂的USB接口(内含MCP服务器使用教程、大模型知识科普)

03使用MCP服务器

1、回到聊天页面,我们点击MCP服务器开关

什么是MCP?一个可让AI取证智能体(Agent)装上三头六臂的USB接口(内含MCP服务器使用教程、大模型知识科普)

2、点击模型,选择一个带有扳手🔧图标模型

什么是MCP?一个可让AI取证智能体(Agent)装上三头六臂的USB接口(内含MCP服务器使用教程、大模型知识科普)
3、输入网址+你的需求,这里我以https://thisweekin4n6.com/为例,让他帮我总结这个网址的内容
什么是MCP?一个可让AI取证智能体(Agent)装上三头六臂的USB接口(内含MCP服务器使用教程、大模型知识科普)
4、我们看到,模型已经在调用fetch工具(当然大家也可以不用这个命名,改称中文的也可以)
什么是MCP?一个可让AI取证智能体(Agent)装上三头六臂的USB接口(内含MCP服务器使用教程、大模型知识科普)
5、显示工具调用成功,这里已经显示了关于这个网址的详情总结
什么是MCP?一个可让AI取证智能体(Agent)装上三头六臂的USB接口(内含MCP服务器使用教程、大模型知识科普)

MCP服务器商店

地址:https://mcp.so/

什么是MCP?一个可让AI取证智能体(Agent)装上三头六臂的USB接口(内含MCP服务器使用教程、大模型知识科普)

地址:https://glama.ai/mcp/servers

什么是MCP?一个可让AI取证智能体(Agent)装上三头六臂的USB接口(内含MCP服务器使用教程、大模型知识科普)

地址:https://github.com/punkpeye/awesome-mcp-servers

什么是MCP?一个可让AI取证智能体(Agent)装上三头六臂的USB接口(内含MCP服务器使用教程、大模型知识科普)

地址:https://smithery.ai/

什么是MCP?一个可让AI取证智能体(Agent)装上三头六臂的USB接口(内含MCP服务器使用教程、大模型知识科普)
【 大模型知识科普 】

1. 模型架构与核心技术

Q: 什么是Transformer?

A: 基于自注意力机制的神经网络架构,核心是"编码器-解码器"结构。示例:

  • 编码器:BERT通过Transformer编码器理解文本语义

  • 解码器:GPT用Transformer解码器逐字生成文本

Q: 什么是MOE(专家混合)?

A: 将模型分为多个专家子网络,每个输入仅激活部分专家。示例:Google的Switch Transformer中,输入"量子物理"可能只激活"科学专家"模块,而忽略"烹饪专家"模块。

Q: 什么是Pretraining(预训练)?

A: 在大规模通用数据上进行的无监督/自监督训练。示例:GPT-3在3000亿单词的互联网文本上预训练,学习基础语言规律。

2. 模型训练与优化

Q: 什么是微调?

A: 在预训练模型上用领域数据继续训练。示例:用医疗病历微调LLM,使其能准确回答"青霉素的副作用是什么?"

Q: 什么是蒸馏?

A: 将大模型知识压缩到小模型的技术。示例:DistilBERT通过模仿BERT的输出分布,参数量减少40%但保留97%性能。

Q: 什么是对齐?

A: 使模型行为符合人类价值观。示例:ChatGPT通过RLHF学习拒绝回答"如何制作炸弹"这类危险问题。

Q: 什么是量化?

A: 降低模型参数精度以减少资源占用。示例:将FP32参数转为INT8,使模型显存占用减少75%(如LLM.int8()技术)。

3. 输入输出处理

Q: 什么是Token?

A: 文本处理的最小单位,Tokens 是 AI 模型处理文本的基本单位,可以理解为模型"思考"的最小单元。它不完全等同于我们理解的字符或单词,而是模型自己的一种特殊的文本分割方式。。示例:"你好!"→中文可能拆为["你","好","!"]3个token,而英文"Hello!"作为1个token。

Q: 什么是分词器(Tokenizer)?

A: 将文本转换为token序列的工具,Tokenizer(分词器)是 AI 模型将文本转换为 tokens 的工具。它决定了如何把输入文本切分成模型可以理解的最小单位。示例:BPE算法把"unhappy"拆分为["un","happy"],解决未登录词问题。

Q: 什么是提示工程?

A: 设计高效输入指令的技巧。示例:劣质prompt:"写文章" → 优质prompt:"以科普风格写500字关于黑洞的文章,受众是高中生"。

Q: 什么是长文本处理?

A: 处理超长上下文的技术。示例:Claude-3使用200K token窗口,能完整分析《哈利波特》单本书的内容。

4. 模型能力与应用

Q: 什么是LLM?

A: 大规模语言模型。示例:GPT-4能写代码、解数学题、创作诗歌,展现通用能力。

Q: 什么是多模态?

A: 处理多种数据类型的能力。示例:GPT-4V分析包含图表和文字的学术论文,回答综合性问题。

Q: 什么是具身智能?

A: 与物理环境交互的智能体。示例:机器人通过LLM理解"请把红色积木放在蓝色盒子旁边",并实际执行动作。

Q: 什么是Function Calling?

A: 模型调用外部工具的能力。示例:用户问"北京明天天气",LLM调用天气API返回实时数据。

5. 系统架构与扩展

Q: 什么是RAG?

A: 检索+生成的混合系统。

什么是MCP?一个可让AI取证智能体(Agent)装上三头六臂的USB接口(内含MCP服务器使用教程、大模型知识科普)
(RAG工作原理图)

示例:问答系统先检索网络相关内容,再生成整合后的答案。

Q: 什么是向量数据库?

A: 存储和检索向量数据的数据库。示例:Pinecone存储文章嵌入向量,支持用"科技新闻"语义搜索相似文章。

Q: 什么是嵌入模型?

A: 将文本转为数值向量的模型,嵌入模型是一种将高维离散数据(文本、图像等)转换为低维连续向量的技术,这种转换让机器能更好地理解和处理复杂数据。想象一下,就像把复杂的拼图简化成一个简单的坐标点,但这个点仍然保留了拼图的关键特征。在大模型生态中,它作为"翻译官",将人类可理解的信息转换为AI可计算的数字形式。

工作原理: 以自然语言处理为例,嵌入模型可以将词语映射到向量空间中的特定位置。在这个空间里,语义相近的词会自动聚集在一起。比如:

"国王"和"王后"的向量会很接近

"猫"和"狗"这样的宠物词也会距离相近

而"汽车"和"面包"这样语义无关的词则会距离较远

主要应用场景:

文本分析:文档分类、情感分析

推荐系统:个性化内容推荐

图像处理:相似图片检索

搜索引擎:语义搜索优化

核心优势:

降维效果:将复杂数据简化为易处理的向量形式

语义保持:保留原始数据中的关键语义信息

计算效率:显著提升机器学习模型的训练和推理效率

技术价值: 嵌入模型是现代AI系统的基础组件,为机器学习任务提供了高质量的数据表示,是推动自然语言处理、计算机视觉等领域发展的关键技术。

Embedding模型在知识检索中的工作原理:

基本工作流程:

1、知识库预处理阶段

将文档分割成适当大小的chunk(文本块)

使用embedding模型将每个chunk转换为向量

将向量和原文存储到向量数据库中

2、查询处理阶段

将用户问题转换为向量

在向量库中检索相似内容

将检索到的相关内容作为上下文提供给LLM

6. 评估与问题

Q: 什么是线索召回率?

A: 检索相关文档的完整度指标。示例:在10篇相关文档中,RAG系统检索到8篇,召回率为80%。

Q: 什么是LLM的幻觉?

A: 生成虚假内容的现象。示例:被问及"爱因斯坦如何评价比特币",模型虚构不存在的言论。

7. 多智能体与协作

Q: 什么是AI Agent?

A: 自主决策的智能程序。示例:什么是MCP?一个可让AI取证智能体(Agent)装上三头六臂的USB接口(内含MCP服务器使用教程、大模型知识科普)

AutoGPT自动分解"开发一个TODO应用"为设计、编码、测试等子任务。

Q: 什么是多智能体协作?

A: 多个Agent协同工作。示例:三个Agent分别担任产品经理、程序员、测试员,合作开发软件。

8. 上下文

Q: 什么是上下文?

A: 模型处理当前输入时参考的历史信息。示例:用户先问"李白是谁?",再问"他写过哪些诗?",模型需保持对话上下文连贯。

【 写在最后 】

AI+电子取证未来聚焦方向

基于目前的大模型技术发展趋势来看

取证智能体是下一个赛道

如何构建良好的智能体生态MCP工具是这个行业的关键要素

MCP的出现可能会加速这一局面的推进

总的来说

大模型技术使电子数据取证分析系统具备了

前所未有的语义理解跨模态关联分析智能决策能力

未来多模态证据、案件碰撞关联自动化取证工作流智能决策分析智能体

将迎来一波增长

展望一下

内容可信、安全可控的AI取证产品会花落谁家呢?

......

什么是MCP?一个可让AI取证智能体(Agent)装上三头六臂的USB接口(内含MCP服务器使用教程、大模型知识科普)
什么是MCP?一个可让AI取证智能体(Agent)装上三头六臂的USB接口(内含MCP服务器使用教程、大模型知识科普)

原文始发于微信公众号(Hunter取证):什么是MCP?一个可让“AI取证智能体(Agent)”装上三头六臂的“USB接口”(内含MCP服务器使用教程、大模型知识科普)

免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉。
  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2025年4月7日00:13:56
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   什么是MCP?一个可让AI取证智能体(Agent)装上三头六臂的USB接口(内含MCP服务器使用教程、大模型知识科普)https://cn-sec.com/archives/3921737.html
                  免责声明:文章中涉及的程序(方法)可能带有攻击性,仅供安全研究与教学之用,读者将其信息做其他用途,由读者承担全部法律及连带责任,本站不承担任何法律及连带责任;如有问题可邮件联系(建议使用企业邮箱或有效邮箱,避免邮件被拦截,联系方式见首页),望知悉.

发表评论

匿名网友 填写信息