当地时间11月25日,Anthropic正在开源一项将人工智能助手连接到数据系统的新标准——Model Context Protocol (模型上下文协议,简称MCP)。MCP提供了一种统一的方式,使得大语言模型(LLM)能够更好地访问和利用外部数据,从而生成更相关和有用的响应。
Anthropic在一篇博客文章中写道:“随着人工智能助手获得主流采用,业界在模型能力方面投入了大量资金,在推理和质量方面取得了快速进步。” “然而,即使是最复杂的模型也受到与数据隔离的限制——被困在信息孤岛和历史遗留系统后面。每个新数据源都需要自己的定制实现,这使得真正互联的系统难以扩展。”
MCP的主要作用是:
简化集成:通过提供一个标准化的协议,MCP 使开发者能够轻松地将AI应用程序与各种数据源(如业务工具、内容库和开发环境)连接起来,而无需为每个数据源编写单独的代码。这种方法可以显著减少开发时间和复杂性。
增强上下文感知:MCP 允许AI系统在不同工具和数据集之间保持上下文,从而提高其理解能力。例如,AI可以更好地理解与编程任务相关的背景信息,进而生成更准确的代码。
促进开放合作:作为一个开源项目,MCP 鼓励开发者社区共同参与,分享和改进协议,以推动更广泛的应用和创新。
简单来说,可以把MCP想象成一个“翻译器”,它帮助不同的数据源(如数据库、文档或其他工具)与AI进行沟通。就像一个人需要了解不同语言的信息时,可以借助翻译器来获取准确的内容一样,AI也需要MCP来“理解”并访问外部信息。
一个具体的应用场景:
想象一个程序员在使用一个集成开发环境(IDE),他需要从GitHub上获取某个项目的最新文档。通过MCP,IDE可以直接连接到GitHub,无需手动查找或切换应用程序,从而使程序员能够快速获取所需的信息并继续工作。这种无缝连接大大提高了工作效率。
Anthropic 表示,包括 Block 和 Apollo 在内的公司已经将 MCP 集成到他们的系统中,而包括 Replit、Codeium 和 Sourcegraph 在内的开发工具公司正在向他们的平台添加 MCP 支持,以提升 AI 助手在编程任务中的上下文理解能力和代码生成效率。
理论上,MCP是个好主意,但它能否获得广泛支持还需要继续观察,尤其是 OpenAI 、Gemini等竞争对手,他们肯定更希望客户和生态系统合作伙伴使用他们的数据连接方法和规范。本质上这是一个标准的争夺,也是一个开发者生态的争夺。
觉得内容有收获,请您加个关注,标个星~ 谢谢您