HyperAI超神经
Back to Headlines

OpenAI 推出远程 MCP 服务器支持,简化 AI 代理与外部工具的集成

4 hours ago

OpenAI最近在其Responses API中加入了远程MCP服务器支持,这是继在Agents SDK中集成MCP之后的又一重要更新。这一举措使得开发者能够通过简单的代码将OpenAI的模型连接到任何符合MCP标准的服务器上,从而实现与其他平台和服务(如Cloudflare、Hubspot、Intercom、PayPal、Plaid、Shopify、Stripe、Square、Twilio和Zapier)的无缝对接。 MCP(Model Context Protocol)是一个开放标准,它简化了如何将结构化的上下文信息传递给大型语言模型(LLMs)。这意味着,开发者不再需要为每个外部工具或服务手动编写特定接口,而是可以通过一个统一的标准来实现模型与多个工具的交互。这不仅提高了开发效率,还增强了AI代理处理复杂任务的能力,如处理支付、管理客户数据或自动化工作流程等。更重要的是,MCP的加入预示着一个更加灵活和可扩展的生态系统正在形成,新的工具和服务可以轻松地集成进来。 为了实现这一点,OpenAI加入了MCP指导委员会,表明了其对推动这一标准发展的决心。根据OpenAI的官方文档,通过配置MCP客户端的方式,可以实现模型与远程服务器的高效通信。例如,以下Python代码片段展示了如何创建一个连接到DeepWiki和WeatherAPI的MCP代理,并处理用户查询“LangChain和LangGraph有什么区别?”: python import os os.environ["OPENAI_API_KEY"] = "<Your API Key>" from openai import OpenAI client = OpenAI() response = client.responses.create( model="gpt-4.1-mini", input=[ { "role": "user", "content": "What is the difference between LangChain and LangGraph?" } ], text={ "format": { "type": "text" } }, reasoning={}, tools=[ { "type": "mcp", "server_label": "deepwiki", "server_url": "https://mcp.deepwiki.com/mcp", "allowed_tools": [ "read_wiki_structure", "read_wiki_contents", "ask_question" ], "require_approval": "always" } ], temperature=1, max_output_tokens=2048, top_p=1, store=True ) print(response.json()) 这段代码通过MCP协议调用DeepWiki工具,获取了关于LangChain和LangGraph的区别。LangChain是一个全面的开发框架,用于构建利用语言模型的应用程序,支持任务管理和外部数据源的整合。而LangGraph虽然提到较少,但可能是基于图谱的方式用于可视化和结构化语言模型的工作流。 与传统的函数调用相比,MCP不仅简化了跨多个服务平台的交互过程,还减少了网络延迟,使AI代理能够更快地响应用户需求。传统的函数调用模式通常需要多个网络跳转,增加了系统的复杂性和响应时间。而MCP通过单一连接点集中管理多个工具,显著提高了系统的性能和可维护性。 未来,OpenAI预期MCP服务器生态系统将迅速发展,这将使开发者的工具选择更加多样,同时也为企业应用场景提供了更强的可扩展性和灵活性。MCP不仅可以用于直接、轻量级的交互,还能支持复杂的模块化工作流和治理机制,使其成为企业在AI代理方面更优的选择。 业内人士评价: Cobus Greyling,OpenAI的首席传道士,认为MCP的引入不仅仅是API集成或功能调用的改进,而是一种全新的范式。他表示,这一标准将彻底改变AI代理与现实世界的互动方式。OpenAI作为MCP指导委员会的成员,正积极推动这一生态的发展,使其更好地服务于企业和开发社区。

Related Links