链载Ai

标题: MCP(大模型上下文协议)快速入门 [打印本页]

作者: 链载Ai    时间: 昨天 21:07
标题: MCP(大模型上下文协议)快速入门

本文假设你已掌握以下基础知识,不再赘述:

MCP是什么

#MCP是一个开放协议,它规范了应用程序向 LLM 提供上下文的方式。MCP 就像 AI 应用程序的 USB-C 端口一样。正如 USB-C 提供了一种标准化的方式将您的设备连接到各种外围设备和配件一样,MCP 也提供了一种标准化的方式将 AI 模型连接到不同的数据源和工具。

MCP 可帮助您在 LLM 之上构建代理和复杂的工作流。LLM 通常需要与数据和工具集成,而 MCP 可提供以下功能:

以上内容摘自MCP官方文档,我觉得已经说的非常清晰直观了,但还是很多人误以为MCP是一个神奇的工具,拥有执行命令、读取文件、查询数据等等功能

不不不,MCP只是一个协议,LLM通过这个协议来使用各个工具。不管是执行命令、读取文件、查询数据,如果你有了这些工具,没有MCP也可以使用工具;反过来说,如果没有这些工具,光有MCP什么也做不了。

MCP的意义是LLM能够使用“远程工具”:这些工具可以使用不同语言、部署在不同设备、具有不同的功能,通过MCP把它们集成一起,供LLM选用;同样的,如果你已经有一批工具,那么也可以MCP把它们提供给任何一个LLM。

总而言之,MCP像USB一样,提供了各个LLM各个工具之间的快速接入。

MCP底层原理

规范版本:2025-03-26

传输协议

鉴权方式:

如果MCP是在自己电脑里用,不用考虑鉴权什么的,那么stdio就够了,简单快捷。

如果你的MCP Server打算通过网络分享出去,基于HTTP则更加方便。此前MCP使用SSE来进行远程传输,在新的规范中则鼓励使用Streamable HTTP ,同时也支持了鉴权更加地安全。


报文内容:

经典的方案,这个没什么好说的,如果你不是打算重新实现MCP Client的话,暂时不需要关注报文内容的细节。


生命周期(重点):

  1. 申明能力:server端定义工具、资源等能力
  2. 初始化:client连接server端,协商版本和能力
  3. 操作:(双向多轮)






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5