随着AI助手功能的不断扩展,我们看到越来越多的服务开始拥抱MCP(Model Context Protocol)协议。继Anthropic、OpenAI等AI公司推出MCP支持后,国内互联网巨头也开始加入这一生态。今天,滴滴出行正式发布了自己的MCP服务器(目前处于beta版本),让AI助手能够直接调用滴滴的打车服务。
滴滴出行 MCP 官网 - https://mcp.didichuxing.com/
这意味着什么?想象一下,你只需要告诉AI助手"帮我从公司叫一辆车到机场",AI就能自动获取价格预估,甚至生成打车链接让你一键下单。这种无缝的服务集成正在重新定义我们与AI助手的交互方式。
滴滴MCP服务器目前提供两个主要功能:
maps_textsearch- 查询地址的详细地理位置信息
wyc_estimate- 查看可用车型和预估价格
wyc_new_order- 生成打车链接
https://mcp.didichuxing.com/mcp-servers首先需要成为滴滴开发者:
API Key让我们看一个获取工具列表的示例:
curl-X"OST""https://mcp.didichuxing.com/mcp-servers?key=YOUR_API_KEY"\-H'Content-Type:application/json;charset=utf-8'\-d'{"jsonrpc":"2.0","method":"tools/list","id":1,"params":{"_meta":{"progressToken":1}}}'
{"jsonrpc":"2.0","method":"tools/call","id":2,"params":{"name":"wyc_estimate","arguments":{"from_lng":"116.397128","from_lat":"39.916527","from_name":"天安门广场","to_lng":"116.584362","to_lat":"39.883750","to_name":"首都国际机场"}}}现在让我们演示如何在ChatOllama中集成滴滴MCP服务器。
安装ChatOllama
参考 https://github.com/sugarforever/chat-ollama 文档完整安装。
配置MCP服务器
在ChatOllama的设置页中中添加滴滴MCP服务器,参考以下截图:
让我们通过几个实际场景来演示滴滴MCP的使用:
在 ChatOllama 中新建一个对话,输入:
帮我查一下从北京站到首都机场的打车价格
你应该能看到类似如下截图的回复。
继续提问:
好的,帮我生成一个快车的打车链接,我到T3。
你应该能看到在回复中给出了打车链接。
在微信中点击链接,即可跳转到滴滴出行 App 完成订单的后续操作。
滴滴MCP服务器的设计充分考虑了用户体验:
目前支持的车型包括:
通过实时数据分析,提供准确的价格区间预估,帮助用户做出明智的选择。
滴滴MCP服务器的推出开启了许多有趣的应用场景:
滴滴MCP服务器的发布标志着国内互联网服务开始深度拥抱AI生态。通过标准化的MCP协议,滴滴将自己的核心服务能力开放给AI助手,这不仅提升了用户体验,也为整个行业树立了一个很好的示例。
随着更多服务提供商加入MCP生态,我们可以期待看到更加智能、更加便捷的AI助手体验。未来,也许我们只需要一句话,AI就能帮我们安排好整个出行计划。
对于开发者来说,滴滴MCP服务器提供了一个很好的学习和实践机会。通过集成这样的服务,我们可以构建更加实用的AI应用,真正让AI技术服务于日常生活。
| 欢迎光临 链载Ai (https://www.lianzai.com/) | Powered by Discuz! X3.5 |