返回顶部
热门问答 更多热门问答
技术文章 更多技术文章

从0.1到∞:MCP协议的技术谦卑与生态野望

[复制链接]
链载Ai 显示全部楼层 发表于 昨天 20:54 |阅读模式 打印 上一主题 下一主题

MCP 是一个很棒的点子, Model Context Protocol,模型上下文协议是由 Anthropic 在 2024 年底推出的一种开放协议,用于标准化应用程序向大语言模型提供上下文的方式。

如果将 MCP Server 想象为是LLM的扩展坞,那么 MCP 协议就是 USB-C 接口。就像 USB-C 为设备连接各种外设和配件提供了标准化方式一样,MCP 为 AI 模型连接不同的数据源和工具提供了标准化方式。

之所以出现 MCP 这类扩展坞,是因为LLM 的模型参数蕴含丰富的通用知识,但通常无法掌握以下两类信息:

1. LLM 无法访问你的专属内容,例如文件系统中的文件、数据库里的订单,或私有 wiki 和笔记中的文本。

2. 若无法联网,LLM 也无法获取实时信息,例如当前股价、最新财报、明日天气预报或前沿科技新闻。


一、MCP 当前热门应用场景

案例一:Claude 的桌面应用。以下展示了 Resend MCP 服务器如何与多个 MCP 客户端协同工作。

给大模型发出指令,发送一封邮件给指定邮箱,大模型通过MCP Client 查看有哪些工具可以用,发现有send_email可以实现请求时,大模型发起对send_email 工具的调用,完成发送邮件的指令。

Resend MCP 服务器如何与多个 MCP 客户端协同工作

案例二:LLM + 高德 MCP Server 实现出行规划。

大模型通过调用每个 MCP Tool,获取了指令中的位置信息、附近的酒店信息,从而完成了出行规划指令。

在这里插入图片描述

二、MCP工作流程

启动客户端后,客户端读取配置文件,连接 server 并按照协议获取工具列表。和传统一问一答或者推理模型不同,当存在可用的 MCP 工具时,在发送用户问题时,需要把可用工具列表一并发送。LLM 将判断是否需要调用工具完成任务,并把这个指示返回给客户端。客户端如果接受到需要调用工具的指示,则按照 LLM 的指示和 MCP 中规定的调用方式,配置好参数联系 server 进行工具调用,并将调用结果再次发给 LLM,组织出最后的答案。

MCP 工作流程:

MCP 工作流程图

三、MCP+中间件

MCP 给中间件带来了新的发展机会。

Nacos 发布 MCP Registry,实现存量应用接口“0改动”升级到 MCP 协议:https://mp.weixin.qq.com/s/MuK-YTVhuBqPzH7iz6Ep7A

在这里插入图片描述

mcp-kafka 服务:

https://github.com/kanapuli/mcp-kafka/blob/main/static/demo.gif

大模型通过 mcp kafka tool 可以完成对 Kafka 创建主题、生成消息、使用消息等功能。

结语

MCP或许是技术发展的一小步,但是具备很大的想象空间,也许是AI发展的拐点。相信越来越多的 MCP 被开发出来以后,将为 Rabbit R1这类硬件扩展更多的功能。

在这里插入图片描述


回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

链载AI是专业的生成式人工智能教程平台。提供Stable Diffusion、Midjourney AI绘画教程,Suno AI音乐生成指南,以及Runway、Pika等AI视频制作与动画生成实战案例。从提示词编写到参数调整,手把手助您从入门到精通。
  • 官方手机版

  • 微信公众号

  • 商务合作

  • Powered by Discuz! X3.5 | Copyright © 2025-2025. | 链载Ai
  • 桂ICP备2024021734号 | 营业执照 | |广西笔趣文化传媒有限公司|| QQ