MCP:AI 时代的“HTTP”标准

从“模型竞速”到“接口竞速”

过去两年,大模型参数量的激增一次次刷新基准测试,却始终难以解决一个朴素诉求:模型如何稳定、安全地接入企业现网数据与业务工具。Anthropic 在 2024 年 11 月抛出的 Model Context Protocol(MCP) 给出了答案——用开放协议为 LLM 打造出一条“USB-C 数据线”。OpenAI、AWS、Microsoft Azure、Google 等主流云厂随即跟进,在各自的 Copilot Studio、Functions/Agents 框架中原生支持 MCP 客户端或服务器。

MCP 如何把“碎片”变成“上下文”

在 MCP 出现前,开发者往往要为不同 LLM 编写定制插件对接 Jira、Slack、GitHub 等业务系统;一旦迁移模型,所有集成需重新开发。MCP 采用 客户端—服务器 架构:

  1. MCP 服务器:由 SaaS 厂商或社区维护,负责把内部 API、鉴权与权限模型封装为标准 JSON 元数据;
  2. MCP 客户端:运行在 Claude、GPT-4o 等模型调用侧,根据元数据动态生成函数调用或工具提示;
  3. 注册表:记录可用服务器与版本信息,供 IDE、浏览器插件或企业网关检索连接。

这种设计让“换模型不换接口”成为可能。Anthropic 的演示显示,开发者只需一次接入,即可让 Claude 在 GitHub 自动建仓、拉取 PR,用时不足一小时The Verge

标准化激活三大飞轮

影响维度预期变化受益方
API 生态无公开 API 的 SaaS 面临淘汰压力;官方 MCP 服务器将成为“标配”云端 SaaS、DevOps 平台
开发效率PoC 周期由“写插件”缩短为“指向服务器”初创团队、企业内开发者
迁移成本LLM 之间可无痛切换或混合调用大型企业、系统集成商

Axios 近期将 MCP 评为“把 AI 与应用胶合在一起的热协议”Axios。随着 SDK 覆盖 Python、TypeScript、Java、C#、Kotlin、Rust 乃至 Go 社区版本,扩散速度远超早期的 REST 和 GraphQL。


新机遇背后的四道关卡

  1. 信任链缺失
    MCP 注册表尚未建立权威根,出现了数十个社区维护的“野生服务器”。开发者若调用未知服务器,机密数据可能外泄。业内呼吁 SaaS 厂商发布 官方签名服务器 并配合 OIDC、mTLS 认证Descope
  2. 版本漂移
    API 快速演进导致服务器与文档脱节,LLM 端难以匹配最新参数。解决方案是引入 语义版本号与自动健康检查,并在注册表中暴露兼容矩阵。
  3. 大一统服务器导致“工具洪水”
    若将 Jira、SAP、Salesforce 全部打包,模型每次推理都要消耗大量提示令牌,且容易“选择困难”。社区倾向按 任务域拆分微服务器,例如“代码审查专用”“财务报表专用”。
  4. 权限与误触
    标准无法杜绝“Claude 把周报发给所有叫 Chris 的人”这类乌龙。高风险动作仍需 人类确认,并辅以最小权限的 OAuth Scope。

产业展望:谁将率先吃到红利?

  • 工具链厂商:IDE(Cursor、Replit)、浏览器插件、RPA 平台正在推出“一键发布 MCP 服务器”功能,为开发者托管流量与日志。
  • 云服务商:AWS Bedrock、Azure OpenAI Service 已将 MCP 兼容性列入服务路线图,主打“Bring-Your-Own-Tools”。
  • API 市场:类似 RapidAPI 的 MCP Marketplace 正在成形,提供计量计费、流量治理与 SLA。

标准一旦成势,后来者将不得不“倒贴”资源追赶。正如 HTTP 之于互联网、USB-C 之于移动设备,MCP 有望成为 AI 应用层的下一条公路——它不让模型更聪明,却让一切连接更简单、更可换。

在 AI 基础模型内卷放缓的当下,决定竞争格局的,或许正是这些“看起来无聊”的基础协议。拥抱 MCP,可能就是站上下一波智能应用浪潮的船票。

第一时间获取面向IT决策者的独家深度资讯,敬请关注IT经理网微信号:ctociocom

   

除非注明,本站文章均为原创或编译,未经许可严禁转载。

相关文章:


关于作者

隐私已经死去,软件正在吃掉世界,数据即将爆炸