凌晨2点,再次Open,奥特曼宣布:OpenAI正式支持对手MCP协议
4 天前 / 阅读约7分钟
来源:36kr
OpenAI Agents SDK接入MCP协议,推动AI工作流标准化。

OpenAI昨夜又放大招,Agents SDK接入行业标准MCP,下一步加持ChatGPT桌面版,要彻底颠覆每个人AI工作流。

自从昨天OpenAI将GPT-4o的原生图像生成同步开放给免费用户后,今天他们又Open了一把。

就在刚刚,OpenAI对其Agents SDK进行了重大更新,支持了对手Anthropic推出的MCP服务协议。

凌晨2点,奥特曼便迫不及待地公布了这个消息。

「大家都挺喜欢MCP的,我们也很兴奋能在我们的产品中支持它,」Altman说。

「今天就可以在Agents SDK里使用,ChatGPT桌面应用和Responses API也很快支持!」

OpenAI负责API的研究员Steven Heidel还在X上贴出了一张现在最火的吉卜力风格图片,来解释MCP的用处。

图片展示了一个基于MCP协议的分布式系统架构。

左边有一个主机运行MCP客户端(例如ChatGPT等应用),通过MCP协议与三个不同的MCP服务器(A、B、C)通信。

MCP服务器A和B分别连接到本地数据源,处理本地数据,而MCP服务C通过Web API与互联网上的远程服务C交互,获取外部数据。

表明了MCP客户端可以根据需求从不同的服务器获取数据或服务。

MCP持续火爆

MCP允许AI模型从业务工具、软件、数据库以及应用开发环境等来源中获取数据完成任务。

可以使开发者能够在数据源和AI应用(如聊天机器人)之间建立双向连接。

自从去年11月Anthropic把MCP服务协议开源后,几个月来,很多像Block、Apollo、Replit这样的公司都在自己的平台上支持了此协议。

到了今年2月,MCP生态进一步爆炸增长,已有超过1000个由社区构建的MCP服务器可供使用。

而且这种网络效应会使MCP越来越有吸引力:通过MCP可用的工具越多,该标准的实用性就越大。

「很高兴看到MCP的热爱传递到了OpenAI——欢迎!」Anthropic的首席产品官Mike Krieger在X上发帖说。

「MCP已经成了一个蓬勃发展的开放标准,已经有几千个集成应用,而且还在增加。只有当LLM能够连接你现有的数据和日常使用的软件时,它们才能发挥最大的作用。」

前段时间,霸榜开源第一的00后博士生0天复刻Manus项目OWL爆火。今天,CAMEL AI团队创始人李国豪表示:

看到OpenAI加入MCP生态是非常激动的,有想过会有这一天,但没有想到会这么快。

MCP推出已有一段时间,如今它逐步成为标准,主要是因为它提供了极大的便利性,同时又是一个开放中立的协议。

MCP的意义远远超过了一个简单的协议本身,而在于推动标准化的进程。实际上,这个协议由谁提出并不重要。

在标准缺失的情况下,各个团队都在独立开发自己的工具,如LangChain、LlamaIndex等,导致不同框架的Agent难以互通,不同框架的工具也难以兼容。

而有了MCP,这个问题就变得简单了。它的价值在于降低对特定框架的依赖,让开发者只需遵循统一标准,就能自由使用各种工具。

官方SDK文档

随着OpenAI在Agents SDK中加入对MCP的支持,开发者现在可以轻松地利用各种MCP服务器,为自己的AI智能体提供丰富的工具能力。

MCP服务器

目前,MCP规范根据传输机制的不同定义了两种服务器类型:

stdio服务器:作为应用程序的子进程运行,可以理解为「本地」运行的服务器

HTTP over SSE服务器:远程运行的服务器,可以通过URL与之连接

开发者可以使用MCPServerStdio和MCPServerSse这两个类来连接这些服务器。

如何使用

开发者可以将MCP服务器集成到AI智能体中。

当AI智能体每次执行时,Agents SDK会自动在MCP服务器上调用list_tools()函数。这一过程使LLM能够识别并获取MCP服务器提供的各种工具。

当LLM需要调用来自MCP服务器的某个工具时,SDK会相应地在该服务器上执行call_tool()函数。

缓存机制

每次AI智能体运行时,系统都会调用MCP服务器的list_tools()方法。这一过程可能会产生明显的性能开销,尤其是在使用远程服务器的情况下。

为了优化性能,开发者可以通过在MCPServerStdio和MCPServerSse构造函数中设置参数cache_tools_list=True来启用工具列表自动缓存功能。请注意:只有确信工具列表不会发生变化时,才应启用此功能。

如需手动清除缓存,可以调用服务器对象的invalidate_tools_cache()方法。

链路追踪

系统内置的链路追踪功能能够自动捕获所有MCP相关操作,主要包括:

向MCP服务器发起的工具列表获取请求

函数调用过程中的所有MCP相关信息

MCP一夜成为行业标准

MCP这一概念,还是Anthropic在去年11月首次提出,全称为「模型上下文协议」,能够实现一次构建,让AI深度集成。

MCP是一个开放协议,它标准化了应用程序向LLM提供上下文的方式。你可以把MCP比作AI应用的USB-C接口——就像USB-C为设备连接各种外设和配件提供了标准化接口一样,MCP为AI模型连接不同的数据源和工具提供了标准化方法。

它的本质,是为了提供一个「通用接口」,好比AI世界「万能插头」。

也就是所说,不同AI模型/应用能够轻松连接到外部资源。这种标准化可以降低开发者的集成成本,同时提升了AI上下文感知力。

Agents SDK是前段时间,OpenAI为开发者准备的「工具箱」,用来打造自己干活的AI智能体,比如写邮件、整理数据。

现在这两者一拍即合,意味着什么?

OpenAI员工用ChatGPT绘制吉卜力风格跟踪仪表板

开发者可用Agents SDK,直接通过MCP调取各种外部数据、工具,让AI能够变得更聪明、更实用。

而这仅仅是个开始,奥特曼透露的未来两个令人期待的计划,将进一步加速AI工作流。

如果ChatGPT客户端也能用上MCP,就会化身为超级私人助理,去年11月每个人从Claude演示中能够获得关键一瞥。

对于开发者来说,MCP加入OpenAI API,未来可以用更少代码,干更多的事儿。

下一代AI工作流,说不定就从这儿起飞了。

参考资料:

https://techcrunch.com/2025/03/26/openai-adopts-rival-anthropics-standard-for-connecting-ai-models-to-data/

https://x.com/sama/status/1904957253456941061

https://huggingface.co/blog/Kseniase/mcp