链载Ai

标题: 企业新基建:MCP LLM Agent架构,将打通AI Agent的“神经中枢” [打印本页]

作者: 链载Ai    时间: 2 小时前
标题: 企业新基建:MCP LLM Agent架构,将打通AI Agent的“神经中枢”

近年来,AI大模型席卷各行各业,我们感受到它强大的语言理解和生成能力。但在实际应用中,光“能说会道”还不够,更重要的是“能说还得能做”。大模型如何跨出文本世界,触达数据库、调用接口、执行代码?答案就是:MCP(Model Context Protocol)模型上下文协议。今天这篇文章,我们将详细解读 MCP 能做什么、它的工作原理以及它是如何打破大模型“只能说不能做”的边界。后面的文章中会分享Cursor等IDE中配置MCP服务器、Cherry Studio等支持MCP的聊天应用、MCP开发等系列文章。


一、MCP能干什么?从程序员到普通用户全面赋能

1、对于程序员来说,MCP是效率工具集大成者,告别重复造轮子

作为一个经常和各种开发工具打交道的人,我深知程序员们的痛点。MCP的出现,真的是解决了不少实际问题。

举例1:一条语音就完成全流程部署

只需说一句“部署新版本到测试环境”,MCP 会自动串联多个 API 工具:

这一切,不需要你亲自点开工具逐个操作,MCP 统统帮你搞定。

举例2:复杂 SQL 查询不再动手写

当你说出“查询某集团部门上个季度销售额”这句话,MCP 会联动大模型自动生成 SQL 语句,调用数据库并返回结果。

无需SQL语法知识,数据一秒到手。

举例3:Manus智能体的多工具调用

Manus 是一个具备复杂推理与操作能力的智能体,它在完成任务时通常需要调用网页搜索、网页访问、文件创建、代码执行等几十种工具。

但它面临两个挑战:

而 MCP 的出现,让所有支持该协议的工具都能“一键接入”大模型,比如在 Cursor 这类 IDE 中,就可以大量调用 MCP 工具,使智能体真正“动起来”。

2、对于普通用户来说,MCP是生活助理升级器

MCP的好处不仅仅局限于程序员群体,普通用户同样能从中受益。

举例1:旅行规划助手

想计划一次旅行?AI 通过 MCP 自动调用:

轻松生成实时更新的旅行行程建议,连衣服都帮你想好了穿哪套。

举例2:联网搜索更自由

许多 LLM 仍不具备联网能力,或者联网后搜索引擎并非用户常用的。

使用 MCP 后,你只需简单配置,就能接入任意喜欢的搜索引擎。

例如 Cherry Studio 已实现大模型灵活调用 MCP,大大减少幻觉、提升实用性。

举例3:一键查询业绩报表

“请查一下上季度营业额”——MCP 就会自动组合调用:

整个过程无需任何专业知识,你只负责开口,AI 负责完成任务。


二、MCP是什么?理解这个协议才是开启能力的钥匙

1、MCP 的核心定义

MCP 全称为 Model Context Protocol(模型上下文协议),由 Anthropic 于 2024 年 11 月提出,是一种为 LLM 设计的开放标准协议。

它的最大特点是:让大模型统一调用各种外部工具或数据源,不再需要为每一个工具单独写适配代码。

2、背景问题:传统方式是 M×N 的灾难

每接入一个大模型(M)和工具(N)都要单独适配,这导致架构复杂、扩展困难。

3、MCP的解决方案:一次标准接入,处处可用

用统一标准封装各种工具,使 LLM 能够轻松选择、调用、组合,实现真正的通用“外挂工具系统”。

4、哪些平台支持 MCP?

以下是当前 MCP 生态中比较成熟的平台和资源汇总:

重要提醒:

三、MCP的工作原理:拆解其背后的“魔法”

1、MCP 的 C/S 架构及组件解析

MCP 采用典型的 Client-Server 架构,包括以下五个核心组件:

组件

说明

MCP Host

主程序,如 Claude Desktop、Cursor、Cline

MCP Client

嵌入在 Host 中,负责连接和请求转发

MCP Server

实际执行 API 或工具调用的模块

Local Resources

运行在本地的工具或数据

Remote Resources

云端或在线可访问的服务

Client 常见支持者包括:

Server 实质是什么?

是一个本地或远程运行的 Node.js / Python 应用,负责实际调用工具或数据接口。

2、MCP 的核心流程详解

阶段一:初始化阶段(Setup Phase)

  1. 启动客户端:用户启动MCP Client程序。

  2. 连接服务器:MCP Client与MCP Server建立网络连接。

  3. 确认连接:MCP Server确认连接成功,告知Client。

  4. 请求可用工具列表:MCP Client主动向MCP Server请求当前可用的工具(Tools)列表及其描述信息(例如天气查询、数据库操作、计算器等API的功能说明)。

  5. 返回工具列表和描述:MCP Server将可用的工具及其详细描述信息返回给MCP Client。这些信息最终会被传递给LLM,帮助其理解它能调用哪些工具。

阶段二:查询处理阶段(Query Processing Phase)

  1. 输入查询:用户在MCP Client中输入问题或指令。

  2. 发送查询和可用工具信息:MCP Client将用户的查询和从服务器获取的可用工具列表及其描述一同发送给MCP Server。

  3. 服务器协调LLM处理:MCP Server将接收到的用户查询连同工具信息传递给LLM进行处理。

  4. LLM决策(循环核心):

关键点总结:

  1. 工具驱动交互:核心创新点在于LLM可以自主决定调用外部工具来扩展其能力,处理超出其知识库或纯文本生成能力的请求。

  2. 初始化工具信息:系统启动时获取工具描述至关重要,这使得LLM能够“知道”有什么工具可用以及如何调用它们。

  3. 循环(Loop)机制:工具调用不是终点。调用结果会作为新的上下文信息连同原始或新查询再次送入LLM。这形成一个循环,允许:






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5