Web3 AI Agent持续阴跌:MCP协议真的是幕后推手吗?
原文作者:Haotian(X:@tme l0 211 )
近期,关于诸如 #ai16z、$arc 等 web3 AI Agent 标的持续下跌的现象引发了广泛讨论。有观点认为,这种市场表现与最近爆火的 MCP 协议存在关联。乍一听似乎令人困惑——两者之间究竟有何联系?然而,经过深入分析后发现,这一说法背后确实有一定的逻辑支撑:现有 web3 AI Agent 的估值定价逻辑正在发生改变,其叙事方向和产品落地路线亟需调整。以下为个人观点:
1)MCP(Model Context Protocol)是一个旨在让各类 AI LLM/Agent 无缝连接到各种数据源和工具的开源标准化协议,可以将其理解为一种即插即用的 USB「通用」接口,取代了过去需要端到端封装的特定方式。
简单来说,原本 AI 应用之间存在显著的数据孤岛问题,Agent/LLM 要实现互通则需要各自开发调用 API 接口,操作流程复杂且缺乏双向交互功能,通常还伴随着有限的模型访问权限。
MCP 的出现提供了一个统一框架,使 AI 应用能够摆脱数据孤岛状态,实现对外部数据与工具的「动态」访问,从而显著降低开发复杂性和提升集成效率。尤其在自动化任务执行、实时数据查询以及跨平台协作等方面,MCP 具有明显的助推作用。
说到这里,许多人可能会联想到,如果将支持多 Agent 协作创新的 Manus 集成这一促进多 Agent 协作的 MCP 开源框架,是否会形成一种无懈可击的组合?
没错,Manus + MCP 才是 web3 AI Agent 此番遭受冲击的关键。
2)但令人匪夷所思的是,无论 Manus 还是 MCP,本质上都是面向 web2 LLM/Agent 的框架和协议标准,解决的是中心化服务器之间的数据交互与协作问题,其权限和访问控制仍依赖各个服务器节点的「主动」开放。换句话说,它们仅具备开源工具属性。
按理说,这与 web3 AI Agent 所追求的「分布式服务器、分布式协作、分布式激励」等核心理念完全背离。中心化的意大利炮如何能炸掉去中心化的碉堡呢?
究其原因在于,第一阶段的 web3 AI Agent 过于「web2 化」。一方面,许多团队来自 web2 背景,对 web3 Native 的原生需求缺乏深刻理解。例如,ElizaOS 框架最初只是一个帮助开发者快速部署 AI Agent 应用的封装工具,集成了 Twitter、Discord 等平台以及 OpenAI、Claude、DeepSeek 等 API 接口,并封装了一些 Memory 和 Charater 的通用框架,以加速 AI Agent 应用的开发。但如果深究,这套服务框架与 web2 的开源工具有何本质区别?又有什么差异化优势呢?
呃,难道优势仅仅是一套 Tokenomics 激励机制?然后用一套完全可以被 web2 取代的框架,激励一批更多为了发新币而存在的 AI Agent?顺着这个逻辑,你大概就能明白为何 Manus + MCP 能够对 web3 AI Agent 产生冲击。
由于一众 web3 AI Agent 框架和服务仅解决了类似于 web2 AI Agent 的快捷开发需求,但在技术服务、标准制定以及差异化优势上却跟不上 web2 的创新速度,因此市场和资本对上一代 web3 AI Agent 进行了重新估值和定价。
3)说到这里,大致的问题已经找到症结所在,但该如何破局呢?答案只有一条:专注于构建 web3 原生的解决方案,因为分布式系统的运转和激励架构才是 web3 的绝对差异化优势。
以分布式云算力、数据、算法等服务平台为例,表面上看,这种以闲置资源为由头聚合起来的算力和数据短期内无法满足工程化创新的需求。然而,当大量 AI LLM 正在集中化算力进行性能突破时,一种以「闲置资源、低成本」为噱头的服务模式自然会被 web2 的开发者和 VC 天团不屑一顾。
但当 web2 AI Agent 过了拼性能创新的阶段,势必会转向垂直应用场景拓展和细分微调模型优化等方向,那时 web3 AI 资源服务的优势才会真正显现。
事实上,当以资源垄断方式登上巨头位置的 web2 AI 发展到一定阶段,很难再退回到用农村包围城市的思想逐个击破细分场景。那个时候,过剩的 web2 AI 开发者与 web3 AI 资源抱团发力的时代就会到来。
事实上,web3 AI Agent 除了 web2 的那套快捷部署 + 多 Agent 协作通信框架 + Tokenomic 发币叙事之外,还有许多 web3 Native 的创新方向值得探索:
比如,配备一套分布式共识协作框架,考虑到 LLM 大模型链下计算 + 链上状态存储的特性,需要诸多适配性组件。
1、一套去中心化的 DID 身份验证系统,让 Agent 能够拥有可验证的链上身份,类似虚拟机为智能合约生成的唯一性地址,主要用于后续状态的持续追踪和记录;
2、一套去中心化的 Oracle 预言机系统,主要负责链下数据的可信获取和验证。与传统 Oracle 不同的是,这套适配 AI Agent 的预言机可能还需要包括数据采集层、决策共识层、执行反馈层等多个 Agent 的组合架构,以便于 Agent 的链上所需数据和链下计算与决策能够实时触达;
3、一套去中心化的存储 DA 系统,由于 AI Agent 运行时的知识库状态存在不确定性,且推理过程较为临时性,需要一套系统将 LLM 背后的关键状态库和推理路径记录下来并存储于分布式存储系统中,同时提供成本可控的数据证明机制,以确保公链验证时的数据可用性;
4、一套零知识证明 ZKP 隐私计算层,可以联动包括 TEE、FHE 等隐私计算解决方案,实现实时的隐私计算 + 数据证明验证,让 Agent 能够接入更广泛的垂直数据来源(如医疗、金融),从而催生更多专业定制化的服务 Agent;
5、一套跨链互操作性协议,类似于 MCP 开源协议定义的框架,但区别在于这套 Interoperability 解决方案需要适配 Agent 运行、传递、验证的 relay 和通信调度机制,能够完成 Agent 在不同链间的资产转移和状态同步问题,尤其是包含 Agent 上下文、Prompt、知识库、Memory 等复杂状态。
在我看来,真正的 web3 AI Agent 攻克重点应在于如何让 AI Agent 的「复杂工作流」与区块链的「信任验证流」尽可能契合。至于这些增量解决方案是由已有老叙事项目升级迭代而来,还是由新构成的 AI Agent 叙事赛道上的项目重新铸就,都有可能性。
这才是 web3 AI Agent 应该努力 Build 的方向,才是符合 AI + Crypto 大宏观叙事下的创新生态基本面。若不能建立相关的创新开拓和差异化竞争壁垒,那么,每一次 web2 AI 赛道的风吹草动,都可能搅得 web3 AI 天翻地覆。
原文链接
免责声明:
1.资讯内容不构成投资建议,投资者应独立决策并自行承担风险
2.本文版权归属原作所有,仅代表作者本人观点,不代币币情的观点或立场