链载Ai

标题: OpenAI拥抱MCP,“MCP经济”下会有哪些新机会 ? [打印本页]

作者: 链载Ai    时间: 昨天 12:52
标题: OpenAI拥抱MCP,“MCP经济”下会有哪些新机会 ?

Agent领域又迎来新进展。

凌晨,OpenAI CEO Sam Altman突发公告,宣布将在旗下产品中支持竞争对手Anthropic提出的模型上下文协议(MCP):“目前MCP已在OpenAI的Agents SDK中开放,ChatGPT桌面版和Responses API的支持也即将推出” 。

MCP被广泛认为是“AI工具集成的新标准”,两大巨头的合作意味着我们有望用统一的标准解决长期困扰AI应用的数据孤岛和工具集成难题

可以预见,随着OpenAI比预期更快的支持MCP,MCP在模型调用工具资源方面已经成为行业事实标准。当Agent行业有了更统一的协议标准,行业还将迎来更快发展。

在这个时间点,锦秋基金参考了Anthropic的官方文档以及海外VC和媒体的研究与报道,尝试梳理出MCP的现状与未来展望,也试图梳理出Agent创业的可能机会与趋势。

如果你对这些话题感兴趣,也欢迎与我们沟通联系(gzh@jinqiucapital.com)

01

MCP是什么?一场关于AI上下文的标准化革命


模型上下文协议(Model Context Protocol,MCP)是Anthropic于2024年11月率先提出并开源的开放标准 。通俗地说,MCP定义了一种让AI助手获取外部“背景信息”和执行工具操作的通用接口

正如官方比喻所言,可以将MCP视作AI应用的“USB-C接口”——为各种工具和数据源提供统一的即插即用连接方式 。

过去,不同AI应用往往需要为每一个数据库、API或知识库开发各自的插件或集成代码;而MCP的愿景是“一劳永逸”,让任意LLM客户端和任意数据源服务器都遵循同一协议对话。

这将大大简化AI系统获取上下文信息和代替用户执行操作的机制。换句话说,MCP试图将过去AI集成领域繁杂的“M×N”对接问题,优雅地转化为“M+N”的标准化架构,使开发者不必管理每对组件的单独适配。

根据Anthropic的官方声明(“Introducing the Model Context Protocol,”anthropic.com, November 25, 2024)从技术架构看,MCP遵循轻量级的客户端-服务器模型。开发者可以将任何具有信息或功能的源头封装为“MCP服务器”,然后让AI助手作为“MCP客户端”来调用这些服务器 。

Anthropic的理念是:任何能为AI助手提供额外信息或功能的东西,都可以变成一个API工具,由LLM自主调用

AI助手(也称AI Agent)通过调用这些标准化工具,就能统一实现各种扩展功能,而无需依赖繁琐的中间框架。MCP具体包括三类参与者 :

借助MCP,LLM与外部世界之间多了一层标准化“桥梁”,让AI拥有了标准化的“触手”,可以伸向各种数据库、应用和工具箱汲取养分,再为我们提供更聪明的服务。它所带来的是一场AI上下文交互的标准化革命,为下一代AI应用奠定了开放集成的基石。


02

MCP的主要用例:从智能代理到实时数据连接


MCP赋予了AI两大关键性的扩展能力:感知环境与影响环境。

一方面,通过标准化的协议,AI能够实时连接并安全地访问外部数据源,无论是企业内部的业务数据库(如库存、交易记录)、实时传感器读数,还是互联网上的公开API,从而摆脱训练数据的时效性限制,获取最新、最动态的信息。

另一方面,MCP使AI不再仅仅是信息的提供者,更成为了行动的执行者,能够调度和操控外部软件工具来完成具体任务,例如调用API发送消息、修改数据库条目、操作日程应用或执行自动化脚本。

此外,MCP还提供了便捷的用户上下文注入机制,允许AI在获得授权的前提下,访问用户的个人数据(如历史对话、偏好设置、本地文件)或企业内部的知识库、文档,从而提供高度个性化和情境感知的响应。

这三大基础能力共同构成了MCP的核心价值,让AI能够更紧密地融入实际工作流,提供更智能、更实用的服务。

在这些基础能力的支撑下,业界已经涌现出一系列具体的实践范式和创新的应用模式,在a16z 最新的文章《A Deep Dive Into MCP and the Future of AI Tooling》里,作者Yoko Li提出了一些他的看法。他认为:

赋能开发者中心化工作流

对于开发者群体而言,频繁的上下文切换是降低效率的一大痛点。MCP为此提供了理想的解决方案,允许开发者在他们熟悉的集成开发环境(IDE)中无缝集成和调用外部工具与服务。

例如,开发者可以直接在IDE内,通过专门的MCP服务器执行数据库查询(如Postgres MCP服务器)、管理缓存(如Upstash MCP服务器),或利用浏览器工具(如Browsertools MCP)进行实时调试,访问控制台日志等信息,而无需离开当前编码环境。这种“本地优先”的工作流显著减少了中断,提升了开发效率。

更进一步地,MCP还催生了自动生成服务器的新范式:通过爬取文档或API规范,可以快速生成MCP服务器,使得编码代理能够即时获得高保真度的上下文信息或直接调用工具能力,极大减少了手动集成和编写样板代码的负担。

催生多功能应用与创新体验

MCP的潜力远不止于连接现有工具,它正在推动客户端应用本身向“万能应用”演进,并创造全新的用户体验。

以代码编辑器Cursor为例,作为MCP客户端,用户可以通过加载不同的MCP服务器,将其转变为具备Slack消息收发、邮件发送(Resend MCP)、甚至图像生成(Replicate MCP)等多种能力的集成工作站。

更具想象力的是,在单一客户端中组合多个MCP服务器可以解锁复杂的新流程,例如,让AI代理一边生成前端界面代码,一边调用图像生成服务器为主页创作视觉元素。这种模式超越了传统应用的单一功能限制。

同时,MCP也在降低专业工具的使用门槛,普惠更广泛的用户群体。虽然初期用例多集中于开发者,但像Claude Desktop这样的客户端正成为非技术用户接触MCP强大能力的入口。

可以预见,未来将涌现更多面向特定业务场景(如客户支持、营销内容创作、设计辅助)的专用MCP客户端。

客户端本身的设计及其支持的交互方式,对最终的用户体验起着决定性作用。例如,Highlight通过创新的@命令允许用户在客户端内调用任意MCP服务器,并将生成内容无缝传递到下游应用(如Notion),形成新颖的UX模式。

另一个引人注目的例子是Blender MCP服务器,它使得几乎不具备3D建模知识的用户也能通过自然语言描述来创建模型。

随着社区为Unity、Unreal Engine等更多工具构建服务器,我们正实时见证着从文本到3D内容生成等创新工作流的诞生与普及,这预示着MCP将深刻重塑人与数字工具的交互方式。

桥接现有集成平台,激活海量应用生态

MCP的标准化特性使其能够高效对接现有的成熟集成平台,Zapier 的实践即是典型代表。

根据Zapier官网https://zapier.com/mcp)的解读,Zapier MCP 充当了一座桥梁,允许任何兼容 MCP 的 AI 助手(如 Cursor、Claude Desktop 等)连接到 Zapier 平台上超过 7,000 款应用和 30,000 多种预设动作的庞大生态系统。

这种方式巧妙地规避了为 AI 单独开发海量应用接口的巨大复杂性,直接复用了 Zapier 已有的集成能力。

用户在 Zapier 中预先配置并授权 AI 可执行的具体操作(例如,“向 Slack 特定频道发送消息”、“在 Jira 指定项目中创建任务”),包括选择账户、限定参数等,然后将生成的安全 MCP 服务器 URL 添加到 AI 客户端。

当用户向 AI 下达指令时,AI 通过 MCP 与 Zapier 通信,由 Zapier 安全地执行已授权的操作。

这使得 AI 不再局限于对话,而是能直接在用户的指令下,于各类业务软件中执行实际任务,如项目管理(Jira, Asana)、客户关系管理(Salesforce, HubSpot)、通信协作(Slack, Teams, Gmail)、数据处理(Google Sheets)乃至版本控制(GitHub)。

Zapier MCP 的实践极大地降低了将 AI 融入日常业务流程的技术门槛,将 AI 助手转变为能够跨应用执行任务的强大工作流引擎。

03

当前的生态格局:基础设施与早期实践者


虽然MCP生态尚处早期,但其围绕协议构建的具体形态已开始显现,为前述各类参与者的商业机会提供了初步的落地场景和支撑体系。这个新兴的生态系统不仅包括协议的核心——客户端与服务器,更囊括了日益关键的基础设施层以及勇于探索的早期采用者。

a16z的《A Deep Dive Into MCP and the Future of AI Tooling》文章里,也进行了详细阐述。

MCP激活了一个繁荣的生态系统:开发者、平台商、数据方、集成商各得其所,共同做大AI应用市场的蛋糕。这也印证了一个洞见:在AI时代,竞争优势将更多来自生态位置而非单点技术。

05

MCP的挑战与未来:构建下一代AI交互基石


MCP面临的争议

尽管MCP凭借Anthropic的推动和OpenAI等巨头的迅速支持,正快速成为AI调用外部工具和数据的事实标准(国内如百度地图、高德地图也已跟进),展现出强大的发展势能,然而行业内对其的争议、质疑乃至审慎的目光也从未停止。

Andrej Karpathy面对相关提问时一句简洁的“please make it stop”,便颇具代表性地折射出部分业内人士对其前景所持有的复杂情绪或保留态度。

这些争议首先尖锐地指向了MCP的核心定位及其能力边界问题。虽然MCP在模型调用工具资源方面表现出色,被广泛认可为该领域的“事实标准”,但一个关键的质疑在于,其当前设计是否(以及如何能)有效支持日益重要且复杂的智能体间通信与协作场景。

批评声音认为,MCP的设计初衷和现有架构并非为此优化,可能存在先天不足,特别是在与那些专门针对智能体通信需求而设计的协议(如ANP、Agora等)进行比较时,其局限性更为凸显。

这直接关系到MCP未来是应坚守工具调用的核心定位,接受与其他协议共存协作的局面,还是需要进行重大的、可能充满兼容性挑战的演进以拓展其能力边界。

紧随其后的,是对MCP所占据的生态位及其对创新空间影响的深切担忧。MCP的迅猛发展和由巨头加持带来的近乎主导的地位,虽然极大地推动了工具调用层面的标准化进程,但“硬币的另一面”是可能形成技术路线的过早收敛甚至垄断。

业界担心,这种“赢者通吃”的局面会挤压其他具有不同设计哲学、或许在特定场景下更优的创新协议(例如,采用不同世界观和技术选型的ANP项目)的生存与发展空间,从而潜在地抑制了整个AI交互协议生态本应具有的多元化探索和长期活力。

部分大型平台在考虑开放核心能力接入MCP时的战略性犹豫,也与这些对标准主导权、生态控制力以及未来技术路径选择的深层顾虑不无关系。

当前面临的主要挑战

比如,在数字营销公司Digidop看来(引用来源:“Model Context Protocol (MCP): How This Revolutionary Technology Is Transforming Artificial Intelligence),MCP当前及未来发展还面临着一系列具体的技术与生态挑战:

06

“MCP经济” :创业的机会可能在哪里?


基于MCP目前的发展,很多人认为这可能是迈向通用AI交互与智能新范式。比如,在Yoko Li的《A Deep Dive Into MCP and the Future of AI Tooling》一文里,他就试图阐释这一观点。基于此,他也提出一些可能的创业机会。

MCP Infra的机会

托管与多租户

MCP 支持 AI 智能体与其工具之间的一对多关系,但多租户架构(例如 SaaS 产品)需要支持多个用户同时访问共享的 MCP 服务器。

默认采用远程服务器可能是一个近期解决方案,以使 MCP 服务器更易于访问,但许多企业也希望托管自己的 MCP 服务器并分离数据和控制平面。 一个用于支持规模化 MCP 服务器部署和维护的简化工具链,是解锁更广泛采用的下一个关键部分。

认证

MCP 目前没有为客户端如何向服务器进行认证定义标准的认证机制,也没有为 MCP 服务器在与第三方 API 交互时应如何安全地管理和委托认证提供框架。认证目前留给各个实现和部署场景自行决定。

在实践中,MCP 迄今为止的采用似乎集中在本地集成上,这些场景并不总是需要显式认证。 一个更优的认证范式可能是推动远程 MCP 采用的一大突破口。从开发者的角度来看,统一的方法应涵盖:

授权

即使工具通过了认证,谁应该被允许使用它?他们的权限应该有多细粒度?MCP 缺乏内置的权限模型,因此访问控制是在会话级别进行的——这意味着一个工具要么可以访问,要么完全受限。

虽然未来的授权机制可能会塑造更细粒度的控制,但当前的方法依赖于基于OAuth 2.1 的授权流,一旦认证通过,即授予会话范围的访问权限。

随着引入更多的智能体和工具,这会增加额外的复杂性——每个智能体通常需要自己的会话和独特的授权凭证,导致一个不断增长的基于会话的访问管理网络。

网关

随着 MCP 采用规模的扩大,网关可以充当认证、授权、流量管理和工具选择的集中层。类似于 API 网关,它将强制执行访问控制,将请求路由到正确的 MCP 服务器,处理负载均衡,并缓存响应以提高效率。

这对于多租户环境尤其重要,因为不同的用户和智能体需要不同的权限。标准化的网关将简化客户端-服务器交互,提高安全性,并提供更好的可观测性,使 MCP 部署更具可扩展性和可管理性。

MCP 服务器的可发现性与可用性

目前,查找和设置 MCP 服务器是一个手动过程,需要开发人员定位端点或脚本,配置认证,并确保服务器和客户端之间的兼容性。

集成新的服务器非常耗时,并且 AI 智能体无法动态发现或适应可用的服务器。 不过,根据Anthropic 上个月在 AI 工程师大会上的演讲,似乎 MCP 服务器注册表和发现协议即将推出。这可能会为 MCP 服务器解锁下一阶段的采用。

执行环境

大多数 AI 工作流需要按顺序进行多次工具调用——但 MCP 缺乏内置的工作流概念来管理这些步骤。要求每个客户端都实现可恢复性和可重试性并不理想。

尽管如今我们看到开发者正在探索像Inngest这样的解决方案来实现这一点,但将有状态执行提升为一等公民概念将为大多数开发者理清执行模型。

标准的客户端体验

我们从开发者社区听到的一个常见问题是,在构建 MCP 客户端时如何考虑工具选择:是每个人都需要为工具实现自己的 RAG,还是有一个等待标准化的层?

除了工具选择之外,也没有统一的调用工具的 UI/UX 模式(我们已经看到了从斜杠命令到纯自然语言的各种方式)。一个标准的客户端层,用于工具发现、排序和执行,有助于创建更可预测的开发者和用户体验。

调试

MCP 服务器的开发者经常发现,让同一个 MCP 服务器在不同客户端之间轻松工作是很困难的。通常情况下,每个 MCP 客户端都有自己的怪癖,而客户端追踪要么缺失要么难以找到,这使得调试 MCP 服务器成为一项极其困难的任务。

随着世界开始构建更多远程优先的 MCP 服务器,需要一套新的工具来使本地和远程环境下的开发体验更加流畅。

如果MCP成为AI驱动工作流的事实标准

MCP 的开发体验让我们想起了 2010 年代的 API 开发。范式新颖且令人兴奋,但工具链尚处于早期阶段。如果我们快进到几年后,如果 MCP 成为 AI 驱动工作流的事实标准,会发生什么?一些预测:

事实上,除此之外,我们可能还能有很多的畅想。比如,未来通过MCP可能能与特定行业数据、特定的SaaS平台结合,开放出来更多个性化的精准的产品与服务。






欢迎光临 链载Ai (https://www.lianzai.com/) Powered by Discuz! X3.5