![]()
![]()
如果在過去的一年里,你的企業還在糾結于如何讓員工更高效地使用聊天機器人,那么現在是時候調整戰略焦點了。我們正在經歷一個從“自動化”到“Agentic AI”的根本性跨越。
對于企業管理者而言,這是一個既令人興奮又充滿挑戰的時刻。作為變革的推動者,我們有機會帶領企業超越單純的效率提升,邁向高自主性的新時代,同時,這也要求我們徹底重新思考企業的運營邏輯。
重新定義“Agent”
在當前的市場上,似乎一切都被貼上了“Agent”的標簽。但撥開表象,從底層邏輯來看,Agent發展至今,呈現出清晰的成熟度階梯。
第一層是傳統自動化,即通過腳本和固定的工作流,處理具有重復性且可預測的任務。雖然高效,但不具備思考能力。
第二層是AI助手,也就是目前普及的聊天機器人。它們擁有強大的知識庫,能回答查詢、總結文檔,甚至通過RAG(檢索增強生成)調用數據。其核心在于“響應”,能在對話中提供輔助,但獨立行動能力依然受限。
第三層是基于目標和任務的Agent。它們不再依賴指令,而是依賴“意圖”。你給它一個特定的業務目標,它能與人類協作,為完成該任務自主調用工具。
最后一層是Agentic系統,也是自主性的最高形態。多個Agents像一個團隊一樣協作,能處理高度復雜甚至模糊的任務。它們能將目標拆解為無數個具體步驟,并分工完成。在這里,AI的核心價值從“響應”進化為“成就”。
目標驅動:它們不等待每一步的指令,而是接收并理解“高階意圖”,再自主規劃路徑,將意圖轉化為行動。
資源整合能力:它們不僅能訪問數據,還能理解上下文、組織層級和角色。它們知道為完成任務需要調用哪些工具、連接哪些API。
記憶能力:真正的Agent擁有記憶,它能記起上次處理類似任務時遇到的問題,從而避免重蹈覆轍。
學習與適應能力:它們不是靜態的軟件,而是能從反饋循環中不斷自我優化的系統。
上報機制:這一點常被誤解。Agent在遇到無法處理的問題時尋求人類介入,這不僅不是系統的失敗,反而是一種內置的信任機制。這意味著你可以放心地讓它處理業務,因為它知道何時該停下來請求你的幫助,而不是盲目地制造風險。
當然,很多人會問,AI的熱潮已經持續了幾年,為什么現在才強調“Agent”?答案在于兩條關鍵曲線的交匯——如今,AI能夠獨立處理的任務復雜度大約每7個月就會翻一番,這意味著AI可以承接越來越復雜的任務;同時,智能成本正在斷崖式下跌。以MMLU(大規模多任務語言理解)基準測試為例,得分為 83 分就相當于博士級專家,能夠處理細微差別和歧義。幾年前,獲取這種“博士級”智能的成本極其昂貴,而如今,處理百萬Token的成本已從 2022 年的 98 美元降至 0.48 美元左右。
當能力飆升遇上成本驟降,我們便進入了大規模應用Agent的“甜蜜點”。
擁抱“非確定性”
新的Agentic AI時代,與過往的一大不同在于,非確定性(Non-determinism)不再是系統的缺陷,而是其固有特性。因而,和傳統管理學僅聚焦于獎勵“確定性”不同,在Agentic AI時代,價值恰來自非確定性,即根據上下文變化、模糊信息進行即時調整和優化的能力。
要駕馭這種力量,領導者需要在四個維度上進行心智模式的轉變。
1、治理模式:從“過閘機”到“董事會”
傳統的治理如同收費站(Toll Gates),通過定義流程、控制每一步、清單驗證實現合規。但當面對數千個高頻互動的 Agent時,這種模式會徹底崩塌。取代它的,是像董事會管理 CEO 一樣管理Agent。
正如董事會不會告訴CEO每天具體該做什么,而是設定戰略意圖和邊界,你也需要構建一個“策略引擎”,明確告知Agent“這是你的目標,這是絕對不能觸碰的紅線”,隨后通過持續的校準和觀測來進行管理,而非在每筆交易前進行人工審批。
2、風險控制:從“工廠流水線”到“交易大廳”
傳統的風險管控模式類似于工廠,常用方式是設定固定閾值,例如規定采購訂單超過200萬美元需副總裁批準,超過1 000萬美元必須提交給CFO。這種僵化的風控會扼殺Agent的核心優勢。
新時代下,企業應像管理交易大廳一樣管理風險。
金融交易大廳充滿了高風險和不確定性,但通過實時可見性和“熔斷機制”(Circuit Breakers)實現有效管理。交易員的每一個動作并不會被干預,但如果其交易組合或某一特定交易違反了政策,熔斷機制會自動觸發停止交易。管理AI Agent也應遵循這一邏輯。AI Agent 必須通過在企業設計的風險控制范圍內運行,以此贏得其“流動性”(即操作權限)。這不僅包括監控具體Agent的行為,還包括監控Multi-Agent 系統中的系統性偏差——一旦發生偏差,需立即觸發熔斷機制。
3、組織結構:從“職能筒倉”到“免疫系統”
組織結構總是隨著重大技術變革而調整。傳統的組織結構往往是垂直化的,雖然穩固,但處理問題時速度遲緩。
在為AI Agent構建組織架構時,應采用的思維模型是“免疫系統”。白細胞發現病毒時,它們不需要等待大腦的指令,也不會召集肺部協同商議,而是迅速集結,通過目標導向的協同編排解決問題。因此,圍繞業務工作流組織跨職能團隊,才是真正能從AI Agent獲取價值成果的方式。
4、文化基因:從“運營執行”到“持續學習”
大多數企業文化都在獎勵“精準執行”,懲罰“偏差”。但實驗室文化對新發現持開放態度,哪怕結果不盡如人意。在實驗室中,若出現失誤,會將其作為一種學習機制,記錄下來并廣泛分享。在這樣的文化中,新的發現和調整本身成為一種特性,而非缺陷。
構建Agent的“大腦”與“工牌”
那么,是哪些技術能力讓AI Agent成為了現實?答案是三大核心因素:智能、上下文理解和信任。
如果我們把 AI Agent 比作人類,智能就是它的“大腦”,技術模型——包括用于思維鏈(Chain-of-Thought)推理和反思的思考模型——賦予了“大腦”將意圖轉化為任務的能力。理想狀態下,我們希望AI Agent擁有最高智能、最低價格和最快響應速度,但在現實中,三個維度之間必然存在權衡。每種模型都有其獨特的優勢:有些擅長推理,有些擅長快速響應,有些擅長處理文本任務,還有些在圖像和數學任務上表現出色。
但僅有大腦并不代表具備行動能力。訪問權限和上下文理解才是AI Agent的“雙手”。它們賦予了AI Agent訪問正確數據、采取行動以及調用各類工具實現目標的能力。在組織中運用上下文理解時,尤其是針對復雜工作流,需要AI Agent理解角色、層級、數據、系統和工具。這包括通過知識圖譜讓AI Agent理解數據中不同對象和領域之間的關系,以及利用向量數據庫讓AI Agent理解語義(即事物之間的相近性,例如“貓”和“狗”是近義詞,而與“云計算”相去甚遠);讓AI Agent擁有記憶能力同樣關鍵,它需要記住角色設定(你是誰)、程序記憶(怎么做)、語義記憶(各類知識),以及情景記憶(上次發生了什么)。
最后一層是信任。沒有信任,AI Agent就無法實現規模化應用。
確保信任的一種方式是設置安全防護機制。比如敏感信息過濾器(即PII,個人身份信息)。企業不希望這類信息泄露,可在安全防護機制中定義相關規則。上下文一致性檢查能為所有AI Agent提供政策層面的信息指引,例如明確告知:“我們的退貨政策是90天。”這些規則必須獨立于模型存在,無論調用哪個大模型,安全防護機制始終生效。
“自動化推理檢查”也是讓企業能夠信任 AI Agent并確保其在公司中有效擴展應用的核心工具之一。這是一種數學驗證方法:與其像測試員一樣繪制無數個三角形來驗證勾股定理,不如用數學定理證明其必然正確。亞馬遜云科技就利用自動推理將幻覺發生率降低了99%。
必須強調的是,AI Agent目前仍處于早期發展階段,不能將其視為“萬能魔法棒”。事實上,若企業擁有步驟固定、工具使用高度有限的可預測工作流,基礎自動化或簡單生成式AI助手便已足夠。當企業需要動態選擇工具,或希望利用Agent的適應性和學習能力時,Agent才會展現真正的強項。此時,企業可從價值最大的三個特定領域入手:軟件開發、客戶支持,以及知識型工作。
例如:湯森路透(Thomson Reuters)利用Agentic AI進行代碼現代化改造,將遺留的 .NET 代碼遷移速度提升了4倍。這不僅是效率的提升,更讓工程師從技術債中解脫出來,專注于創造新價值。亞馬遜的購物助手Rufus能夠回答諸如“這個玩具需要幾號電池”或“這跟我以前買的配件兼容嗎”這類高度情境化的問題,數據顯示,使用Rufus的用戶購買轉化率提升了60%。應付賬款的案例則是知識型工作與異常處理的典型場景:傳統的應付賬款(AP)處理目標是“準時付款”,而Agent AP的目標可以是“優化現金流”。它可以根據匯率波動、廠商歷史信用、合同條款,自主選擇是根據匯率波動提前付款,還是利用外匯對沖策略延遲付款。這正是從“按部就班”到“高能動性”的價值躍遷。
伊希特·瓦赫拉賈尼(Ishit Vachhrajani)| 文
伊希特·瓦赫拉賈尼是亞馬遜云科技全球技術、AI分析與企業戰略負責人。
聯系方式
投稿、廣告、內容和商務合作
newmedia@hbrchina.org
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.