![]()
![]()
作者|青蘋吹果
編輯|無心插柳柳橙汁
2026開年,Anthropic的處境堪稱冰火兩重天,一半是海水,一半是火焰:
一邊,是被“公開處刑”:川普在怒斥它“想要不受約束的權力”,美國戰爭部長親自下場,給它貼上了“供應鏈風險”的標簽。另一邊,卻是真香現場:才被“點名”幾小時后,他家工具就悄咪咪出現在了美軍指揮部的機密系統里。
同一周,App Store免費榜榜首輕松拿下,Anthropic可以說拿到了爽文劇本。
![]()
這家由OpenAI前核心成員創立的公司,剛剛完成了一輪300億美元的融資,估值飆升至3800億美元,成為全球估值第二高的AI獨角獸,僅次于OpenAI的5000億美元。
更令人震驚的是,其年化收入已達到140億美元,過去三年每年增長超過10倍,被《華爾街日報》稱為“史上增長最快的企業軟件公司”。
在OpenAI統治消費者市場、谷歌憑借全棧能力重回牌桌的背景下,Anthropic憑什么殺出一條血路?它的崛起又揭示了AI產業怎樣的未來圖景?
![]()
和OpenAI割席
道不同不相為謀
要了解Anthropic的崛起,必須先了解其創始人Dario Amodei。
這位1983年出生的物理學天才,2000年入選美國物理奧林匹克國家隊,在加州理工、斯坦福和普林斯頓完成學業后,于2014年加入百度,在吳恩達麾下從事大模型規模定律的早期研究。橫跨物理學、生物學和計算方法的學術訓練,使他對復雜系統的量化分析產生濃厚興趣,也為他日后在AI安全領域的研究奠定了基礎。
![]()
2016年,Amodei加入OpenAI并主管AI安全工作。接下來的五年里,他主導開發了GPT-2和GPT-3,并與團隊共同發明了“基于人類反饋的強化學習”(RLHF)技術——這項技術后來被所有主流大語言模型采用,成為確保AI系統與人類價值觀對齊的關鍵突破。
然而裂痕也在同期埋下。
2020年底,Dario Amodei帶著包括妹妹Daniela在內的14名核心研究員集體出走。2021年2月,Anthropic創立。
出走的原因,Amodei在今年2月的一次播客訪談中坦言:他主張更審慎的發布節奏和更嚴格的安全測試,而OpenAI在微軟投資后加速商業化。“我們早在2022年就有一個早期版本的Claude 1,早于ChatGPT的發布,但我們選擇當時不公開發布,因為擔心會引發軍備競賽,沒有足夠時間安全地構建這些系統。”
這種對安全的執著,深深烙印在Anthropic的基因里。
成立之初,Anthropic就設計了一套安全優先的治理結構:
注冊為公共利益公司(PBC),必須同時平衡股東經濟利益和明確的公共利益;設立長期利益信托,由獨立受托人監督公司決策,確保不因短期商業壓力而犧牲AI安全。《時代》雜志2024年曾點評稱,OpenAI 2023年的治理危機恰恰驗證了Anthropic對新型治理結構必要性的判斷。
![]()
用產品力說話
Anthropic在市場“開掛”
如果說安全理念是Anthropic的“道”,那么產品策略就是他的“術”。
與OpenAI一開始就面向全球公眾發布ChatGPT不同,2023年3月Claude 1發布時僅面向經審核的企業用戶。這一策略在當時看似保守,實則精準——Anthropic選擇了一條與OpenAI截然不同的道路:專注企業級市場,用產品力構建護城河。
Anthropic押注的是市場的幾個核心痛點:
首先是長上下文能力。2023年5月,Claude將上下文支持能力從9K擴展到100K tokens,而同期GPT-4最高只有32K。2024年3月,Claude 3發布又全線支持200K,重新拉開與OpenAI的差距。
![]()
如今,二者的上下文能力都已達到1M tokens,但在2023年到2024年,長上下文能力是Anthropic在企業市場的核心賣點。正如Anthropic官方所言:“企業客戶有高達50%的知識庫以PDF、流程圖、演示文稿等形式存在,長上下文讓Claude可以一次性處理整個代碼庫、數百頁法律文檔或銷售記錄。”
其次是編程能力的突破。2025年2月推出的Claude Code成為Anthropic最具殺傷力的產品。這是一款可直接在終端運行的AI編程工具,能夠讀取企業現有代碼庫、自主規劃并執行任務,實現了從“代碼補全”到“AI委托完整任務”的進化。
截至2026年2月,Claude Code的年化收入已超過25億美元,自年初以來增長了一倍多,企業訂閱量增長了四倍。根據費用管理初創公司Ramp的數據,Anthropic在今年1月的AI模型API支出市場中已占據主導地位,份額接近80%。
在AI開發者中,Anthropic在代碼市場的份額達到42%,而OpenAI為21%。就連微軟也在2025年9月表示,將把Claude模型整合到Copilot軟件套件中。
![]()
第三是產品矩陣的深化。2024年推出的Artifacts和Projects,將Claude從“對話工具”轉變為“協作工作區”,解決了“如何讓AI無縫融入現有工作流”的核心挑戰。
今年2月,Anthropic又發布了10款全新AI插件,覆蓋投行、財富管理、人力資源、私募股權、工程設計等多個垂直場景。
同日,公司宣布收購Vercept,一家脫胎于艾倫人工智能研究所的AI初創公司,主打“像人一樣看屏幕、操控電腦”的無API自動化,進一步補足自身視覺能力短板。
這一系列動作的效果已經開始顯現。目前,Anthropic服務的企業客戶已超過30萬家。過去一年,年消費超過10萬美元的客戶數量增長了7倍,年消費超100萬美元的客戶已超過500家。
高盛近期宣布與Anthropic合作開發自動化銀行業務AI代理,進一步印證了其企業化路徑的有效性。
![]()
被卷入復雜博弈
Anthropic安全理想兩難
然而,Anthropic近期最引人注目的,不是它的增長,而是它在安全立場上的重大轉向以及與華盛頓的復雜博弈。
首先是安全承諾的軟化。今年2月,Anthropic對2023年推出的《負責任擴展政策》做出大幅度修改。這份政策最核心的條款是:當模型迭代速度超過自身安全防護能力時,“暫停模型規模擴張或推遲新模型的發布”。而在新版本中,Anthropic不再承諾單邊暫停有風險的模型。
Anthropic首席科學家Jared Kaplan在接受《時代》采訪時坦言:“如果競爭對手都在全速前進,我們再做出單邊承諾,其實并不合理。停止訓練人工智能模型,實際上對任何人都沒有好處。”
這番話道出了AI行業的殘酷現實。根據最新財務預測,Anthropic預計2026年營收將達180億美元,2027年達550億美元。但與此同時,訓練成本也在飆升:2026年訓練支出預計超過120億美元,2027年接近230億美元。在業務結構上,Anthropic約80%的收入來自企業客戶,而OpenAI也在這個賽道飛速進步,積極推廣其AI編程工具并發布新版模型。拆除“安全護欄”,或許只是Anthropic開啟貼身肉搏的第一步。
其次是與美國政府的對峙。就在軟化安全承諾的同時,五角大樓要求Anthropic移除Claude模型上的安全護欄,以便在“所有合法用途”中使用。Amodei明確拒絕,稱無法在良心上同意他們的要求,警告這將迫使公司跨越兩條紅線:大規模國內監控和完全自主武器。
“Anthropic是首個將模型部署到美國政府機密網絡、首個在國家級實驗室部署模型,以及首個為國家安全客戶提供定制模型的人工智能公司。”但Amodei強調,國防部提出的“任何合法使用”的要求將迫使公司突破底線。
2月27日,特朗普在社交媒體上發文,指責Anthropic試圖用服務條款勒索五角大樓,下令所有聯邦機構立即停止使用Anthropic的技術。隨后,國防部長將其正式指定為“國家安全供應鏈風險”,這意味著任何與美軍有業務的承包商不得與Anthropic開展商業活動。
![]()
幾小時后,Sam Altman宣布OpenAI與國防部達成協議,允許其模型部署在軍方機密網絡中。Altman稱協議包含了“技術保障措施”和“紅線”限制,如不用于國內大規模監控和完全自主武器。
兩相比較,能看到兩家公司在AI安全上的不同策略:Anthropic主張在技術層面嵌入限制,而OpenAI更傾向于通過合同條款和政策框架來約束。這種態度差異呼應了Anthropic從OpenAI出走的原因——對安全及商業利益的不同排序,最終與兩家公司所服務的市場形成了相互強化的閉環:OpenAI更重視toC,追求增長,而Anthropic追求安全和穩定,最終走了toB路線。
![]()
資本市場瘋狂押注
Anthropic能否“不忘初心”?
與輿論場的爭議形成鮮明對比的,是資本市場對Anthropic的瘋狂追捧。
2月12日,Anthropic宣布完成G輪融資,金額300億美元,投后估值3800億美元。這一數字意味著什么?去年9月,公司剛以1830億美元的估值完成130億美元融資,短短半年內估值翻倍。
從融資結構來看,本輪由新加坡政府投資公司(GIC)和Coatue領投,聯合領投方包括D. E. Shaw Ventures、Founders Fund、ICONIQ等。重要投資者名單上還列著黑石集團、高盛、摩根大通、紅杉資本、淡馬錫等一眾頂級機構。其中包含此前已披露的戰略投資:微軟計劃投入最高50億美元,英偉達則承諾最高100億美元。
在業務結構上,Anthropic約80%的營收來自企業客戶,這與OpenAI約30%的企業營收占比形成鮮明對比。投資者正押注其工具能夠系統性改造白領工作流程,目標并非傳統IT預算,而是規模更大的勞動力支出。Foundation for American Innovation高級研究員Dean Ball指出:“Anthropic模型的迅速普及,是自ChatGPT推出以來AI領域最具影響力的事件。”
為什么投資者如此瘋狂?
首先是創始團隊的硬核背景。Anthropic的七位聯合創始人全部來自OpenAI核心團隊,且至今仍在公司任職。相比之下,OpenAI自2015年成立以來,11位創始成員中已有8位離職。其次是強勁的業績表現:年化收入140億美元,過去三年每年增長超10倍。
值得一提的是,本輪融資的資方名單中,出現了不少OpenAI股東的身影。至少12家曾直接投資OpenAI的機構,也出現在Anthropic的支持者名單中,如Founders Fund、ICONIQ和紅杉資本等。對于這些機構而言,雙重押注意味著鎖定了AI賽道最核心的兩張門票:
無論最終是OpenAI還是Anthropic勝出,它們都已穩坐牌桌。
在接受CBS采訪時,Amodei表示,Anthropic反對將其AI模型用于大規模國內監控和全自動武器,但對于美國政府提出的其他使用場景均表示認可。
![]()
“這些都是對美國人來說最根本的權益:擁有人不被政府監控的權益,讓我們的軍官親自做出戰爭決策的權益,而不是完全交由機器處理。”
這套說辭,聽起來依然理想主義。但在激烈的市場競爭和巨大的盈利壓力下,這份理想主義還能堅持多久?在最近的一次播客訪談中,Amodei談到,哪怕收入預測只偏差20%即從1萬億降到8000億,即使AI能力最終實現,但只要晚一年,公司可能就會破產。這段話,或許比任何安全宣言都更能揭示Anthropic的真實處境。
如果連“最有良心的AI企業”都不得不向市場妥協,那么AI安全的底線將由誰來守護?這場博弈的最終結局,不僅關乎一家公司的命運,也關乎整個AI產業的未來走向。
畢竟,當理想主義遭遇現實,當安全承諾讓位于生存壓力,Anthropic的困境或許正是整個行業面臨的共同考題。
![]()
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.