終究是 Google 和 Anthropic,扛下了連接一切 Agent 的所有
Google在近期的Cloud Next '25大會上推出了Agent2Agent (A2A)協(xié)議,旨在打破不同AI Agent之間的信息孤島,實現(xiàn)跨系統(tǒng)、跨領域的無縫協(xié)作。與此同時,Anthropic的Model Context Protocol (MCP)也在為AI Agent的互操作性提供解決方案。本文將深入探討Google的A2A協(xié)議與Anthropic的MCP之間的技術差異、戰(zhàn)略意圖以及它們對未來AI Agent生態(tài)的深遠影響,揭示這場關于AI Agent“通用語言”的競爭背后,兩大巨頭如何布局未來人工智能的標準化和應用生態(tài)。
Google Cloud Next ’25大會上,Google“殺瘋了”,而與其說今年的大會是一場按部就班的發(fā)布會,不如看作是Google Cloud在全球AI軍備競賽中的一次表態(tài)。面對亞馬遜 AWS 和微軟 Azure 這兩大巨頭的擠壓,盡管手握 DeepMind 等頂尖 AI 研究力量,Google Cloud在市場份額上長期扮演著“第三名”的角色。這一次,Google似乎決心不再僅僅追隨,而是要先發(fā)制人。
Google Cloud CEOThomas Kurian和Alphabet CEO桑達爾·皮查伊在臺上反復強調的主題,是如何將 AI 從“可能性”轉變?yōu)槠髽I(yè)的“生產(chǎn)力”。
漂亮的增長數(shù)據(jù)——Vertex AI 平臺使用量激增二十倍、超過四百萬開發(fā)者使用Gemini模型,固然能提振士氣,但數(shù)字背后,Google真正亮出的底牌是對AI Agent未來潛力的全面押注。
其中,最有野心的就是開放Agent互操作協(xié)議 Agent2Agent (A2A)。
01 從MCP 到A2A:Agent間的“通用語言”之爭已經(jīng)開始
在Google的A2A發(fā)布前,給AI Agent一個“通用語言”的趨勢正在形成,而主角是Anthropic的MCP。
在去年11月,Anthropic開源了“模型上下文協(xié)議”(MCP),該協(xié)議將大模型直接連接至數(shù)據(jù)源,核心目標是解決 AI 模型與數(shù)據(jù)孤島的隔離問題,通過提供統(tǒng)一協(xié)議替代碎片化的自定義集成。MCP使用客戶端-服務器架構,AI 應用(如 Claude Desktop 或 IDE)通過 MCP 客戶端連接到 MCP 服務器,前者提供數(shù)據(jù)源或工具的訪問。
簡單來說,現(xiàn)在企業(yè)和開發(fā)者要把不同的數(shù)據(jù)接入AI 系統(tǒng),都得單獨開發(fā)對接方案,而MCP要做的,就是提供一個“通用”協(xié)議來解決這個問題。
MCP架構包含以下幾個部分:MCP主機:包括Claude Desktop、IDE等需要通過MCP訪問資源的AI工具MCP客戶端:與服務器保持一對一連接的協(xié)議客戶端MCP服務器:一個輕量級程序,通過標準化的MCP協(xié)議開放特定功能本地資源:計算機上的數(shù)據(jù)庫、文件和服務等資源,MCP服務器可以安全地訪問這些內容遠程資源:通過互聯(lián)網(wǎng)訪問的API等資源,MCP服務器可以與之建立連接
“MCP 之所以強大,部分原因在于它通過同一協(xié)議處理本地資源(如數(shù)據(jù)庫、文件、服務)和遠程資源(如 Slack 或 GitHub 的 API)”當時Anthropic給出的“推薦語”如此。這個統(tǒng)一標準在推出之初并沒有立刻成為行業(yè)共識。但隨著最近一個月AI Agents產(chǎn)品的井噴,它迅速變成了目前最受認可的“標準”。
有模型從業(yè)者從接口標準化的角度看待MCP,將其類比為Mac筆記本的接口:“充電,外接顯示器以及插本地U盤什么的都用一個接口統(tǒng)一起來了”。人們認為該協(xié)議的核心價值在于為大模型數(shù)據(jù)集成提供了統(tǒng)一標準,不僅能提高開發(fā)和使用效率,還能增強大模型的實際應用能力。
而在技術上,在MCP出現(xiàn)之前,業(yè)界主要依賴RAG和微調等方案,以及各類Agent應用來實現(xiàn)數(shù)據(jù)集成,不夠統(tǒng)一。像Dify、Coze這些平臺,都是借助llamaindex和langchain構建,雖然這些方案能夠滿足需求,但整體來說比較零散,缺乏統(tǒng)一標準。
本質上,Google的A2A也是想解決這個孤島與統(tǒng)一的問題。
目前有大量工具在嘗試讓大家能方便地“造”出 Agent,但這還遠遠不夠。企業(yè)內部很快會面臨新的“筒倉效應”:不同團隊、不同任務、使用不同框架(如 ADK、LangGraph、CrewAI 等)構建的Agent可能無法有效溝通,形成新的信息孤島。
這是Agent2Agent (A2A) 協(xié)議試圖解決的核心問題。A2A被定位為一個新型的、開放的互操作性協(xié)議,其野心在于讓任何來源、任何框架構建的AI Agent,都能夠安全地進行通信、交換信息并協(xié)調行動。例如,一個銷售部門的Agent可以無縫地調用財務部門的Agent來核實信用額度,或者一個客服Agent能夠自動觸發(fā)供應鏈Agent來查詢訂單狀態(tài)——A2A旨在為這種跨系統(tǒng)、跨領域的Agent協(xié)作提供一套標準化的“握手”和“對話”機制。
根據(jù)Google的介紹,A2A協(xié)議基于能力發(fā)現(xiàn)(Agent 通過 JSON 格式的“Agent Card”發(fā)布自身能力)、任務管理(實現(xiàn)任務生命周期的同步)、協(xié)作和用戶體驗協(xié)商等關鍵原則運作,并建立在成熟的HTTP和JSON標準之上,以確保兼容性和安全性。
Google深知,標準的建立非一家之功。因此,他們將A2A作為開源項目發(fā)布,并已聯(lián)合了超過 50 家技術合作伙伴,包括Salesforce、SAP、ServiceNow、MongoDB、德勤等行業(yè)巨頭,共同參與協(xié)議的開發(fā)和推廣。這個陣容顯示了 A2A 在企業(yè)軟件領域的初步吸引力。正如 ServiceNow執(zhí)行副總裁喬·戴維斯所說:“這關乎打破壁壘和孤島,讓Agent真正協(xié)作。”
不過A2A的野心,可能遠不止于讓 AI Agent 聊天那么簡單。有評論一針見血地指出,Google試圖通過 A2A 解決的是一些互聯(lián)網(wǎng)誕生以來就存在的根本性問題:服務發(fā)現(xiàn)、互操作性、身份認證。這些挑戰(zhàn)并非 AI 時代獨有,想想微軟曾憑借 OLE (對象連接與嵌入) 技術在桌面軟件時代構建的生態(tài)壁壘,再想想蒂姆·伯納斯-李爵士那個宏大卻未能完全實現(xiàn)的“語義網(wǎng)”夢想。
相比之下,目前業(yè)界熱議的“自動函數(shù)調用”只是解決了”Agent 如何使用工具”的問題,Anthropic 的 MCP 是這方面的一個重要標準,A2A在這個意義上對其進行了補充支持。但長期來看, A2A 則試圖解決“Agent 如何與 Agent 協(xié)作”這個更宏大、更復雜的問題。這體現(xiàn)了Google在技術戰(zhàn)略上依然懷有的“大圖景”野心。
Google還表示,A2A 的設計將支持文本、音頻、視頻等多種模態(tài)。此外,將A2A 開源,邀請社區(qū)參與,既是加速標準成熟的策略,也是爭取開發(fā)者和企業(yè)認同的高明之舉。
在當天的發(fā)布后,Google并沒有“挑明”它與Anthropic的競爭,而是形容兩者是“互補”的關系。不過,仔細對比會發(fā)現(xiàn)這場競爭注定發(fā)生:
MCP最初的出現(xiàn),就是Anthropic為了解決Agents的互通問題,只不過在Anthropic的定義里,模型能力它自己就能來解決,而Agents需要的調用工具的能力需要一個生態(tài),這導致它其實更像傳統(tǒng)的API的思路,參與者只需要把自己的能力提供出來,至于你能不能有一個完整的自己的應用,不重要。
但Google這次的A2A,則在探索新的AI時代是否可以從一開始改掉API的模式。A2A的設想里,加入的AI Agent是有“掌握”一個自己的應用產(chǎn)品的可能,不像MCP可能把數(shù)據(jù)的權利都要提供出來,而是以完整Agent的形式參與一個更大的市場。
這也讓Google這次發(fā)布里的一些細節(jié)值得玩味,在Google當天宣布的合作伙伴名單中,缺少了微軟和OpenAI這樣的玩家。但OpenAI其實在前不久剛剛高調宣布接入了Anthropic的MCP。很明顯的一個判斷是,對于OpenAI這樣的野心家,MCP它可以不做,但Google這種更直接的可能統(tǒng)一應用生態(tài)的標準,它是想做的。
Google發(fā)布A2A的時機抓的也很準,在模型水平不斷拉平,曾經(jīng)落后的Gemini早已追上OpenAI后,在制定標準這事上,Google絕對不想讓Anthropic吃掉一切。這場競爭已經(jīng)開始。
02 配套A2A的更大野心:要讓AI Agent無處不在
要繁榮生態(tài),必先降低門檻。Google為此還推出了Agent Development Kit (ADK) 。
這是一個開源的、初期以Python實現(xiàn)的框架,旨在極大簡化單個Agent及復雜多Agent系統(tǒng)的創(chuàng)建過程。Google宣稱,開發(fā)者僅用不到100行代碼就能構建一個功能性的Agent。
ADK的目標非常明確:鼓勵開發(fā)者和企業(yè)圍繞Google Cloud構建各式各樣的Agent——無論是用于響應客戶、編寫代碼、生成營銷文案還是優(yōu)化運營流程。通過提供易用的工具,Google希望加速Agent應用的落地。當然,這也潛藏著商業(yè)目的:一個繁榮的Agent生態(tài),自然會增加對其底層云服務的依賴和消耗,從而提振Google Cloud的收入,或許還能部分緩解投資者對生成式AI高昂成本和資本支出(Alphabet 預計今年高達 750 億美元)的擔憂。
在Agent藍圖之外,Google還在加速將其能力融入實際工具,讓Agent成為可用的生產(chǎn)力。
其AI 編程助手Code Assist也迎來了Agent化升級,核心是引入能執(zhí)行多步驟復雜任務(如根據(jù)需求文檔生成應用、自動代碼遷移)的 AI 代理,并擴展支持 Android Studio 等環(huán)境。此舉旨在應對日益激烈的 AI 編程助手競爭,盡管新功能尚待發(fā)布。
同時,Google推出了 Firebase Studio,一個基于云和 Gemini 的全棧 AI 工作區(qū)。目標是顯著降低 AI 應用開發(fā)門檻,讓開發(fā)者乃至非技術用戶也能在瀏覽器中一站式構建、發(fā)布和監(jiān)控應用,從而加速 AI 應用的創(chuàng)新和普及。
通過 Code Assist 的深化和 Firebase Studio 的拓寬,Google正將 Agent 能力注入從專業(yè)開發(fā)到低代碼的全流程。這顯示了其完善工具與平臺、配合底層 ADK 與 A2A 協(xié)議,加速 Agent 戰(zhàn)略在Google Cloud生態(tài)落地的決心。
這一系列關鍵產(chǎn)品發(fā)布背后,Google深知成為標準制定者的重要性,在AI Agent走向繁榮的關鍵節(jié)點,它肯定不想讓所有AI Agents都聽Anthropic的。Google想讓AI Agents 無處不在,并且要讓它們都建立在Google的生態(tài)里。
作者:周一笑
本文由人人都是產(chǎn)品經(jīng)理作者【硅星人】,微信公眾號:【硅星人Pro】,原創(chuàng)/授權 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉載。
題圖來自Unsplash,基于 CC0 協(xié)議。
- 目前還沒評論,等你發(fā)揮!