![]()
撰文|畫畫
最近,科技圈兩條內部消息引發(fā)了不小的討論。
一條是美團。有內部人士透露,公司調整了大模型使用策略,不再推薦業(yè)務團隊使用阿里的Qwen等大模型。如果某個團隊確實有必要繼續(xù)用,得寫清楚理由,上報到X3級別審批。
也就是說,要驚動老板級別的人來點頭。與此同時,美團明確推薦內部優(yōu)先使用自研大模型LongCat(龍貓)。
京東的動作更直接。從兩周前開始,京東正式在網絡層面攔截員工訪問豆包、通義千問、Gemini、DeepSeek、ChatGPT、Grok等外部AI平臺。員工打開這些頁面,會被系統(tǒng)自動攔截。
攔截頁面里,一邊是公司自研大模型JoyAI的入口,另一邊保留了一個“申請通道”,有特殊業(yè)務需求可以走合規(guī)流程申請。
官方解釋是:防止業(yè)務數據外泄,保障信息安全和合規(guī)。
這個解釋聽起來無懈可擊。但如果仔細想,這兩家大廠的做法,正在開一個危險的先例。
1、先承認,他們這么做不是沒道理
在展開討論之前,有必要先把對方的邏輯說清楚。數據安全的焦慮是真實存在的,不是借口。
當員工用ChatGPT處理內部文檔、用DeepSeek分析業(yè)務數據、用豆包起草內部郵件,這些文本會以某種形式進入第三方服務器的處理流程。對于一家掌握著大量用戶數據、商業(yè)數據、供應鏈數據的公司來說,這種風險不是妄想,是現(xiàn)實。
推動員工使用自研模型,也有其商業(yè)邏輯。大模型的能力,很大程度上靠真實使用場景來打磨。內部員工的使用反饋,是最直接的迭代信號。把員工留在自家產品里,既能提升產品成熟度,又能減少對外部廠商的依賴。
2026年3月,京東開源了JoyAI-Image-Edit圖像模型,美團也推出了原生多模態(tài)LongCat-Next。從財報會上的表態(tài)看,王興明確表示仍將堅定推進自研大語言模型LongCat的研發(fā)。
類似做法,在金融、政府、醫(yī)療等強監(jiān)管行業(yè)早已有之。此前,已有超過20家券商發(fā)布內部合規(guī)提示,限制在公司網絡環(huán)境中安裝、使用OpenClaw等第三方AI智能體應用。某種意義上,京東美團只是在追上這些行業(yè)的數據治理水位。
但問題在于,安全可以有更好的解法,他們選擇了最省事的那個。
2、封禁解決的是匯報問題,不是安全問題
真正的數據安全靠分級管理、權限控制、數據脫敏和審計日志。企業(yè)版AI工具通常提供數據不出域的私有化部署方案,OpenAI、Anthropic、阿里云都有面向企業(yè)的合規(guī)版本,合同里明確約定數據不用于模型訓練,處理日志可查可審計。
這套方案當然麻煩。需要安全團隊設計架構、法務審合同、IT做訪問控制,可能要折騰好幾個月。
而封禁呢?一條網絡策略,一個攔截頁面,半天搞定。匯報時也好看:我們已經采取了措施。
直接點說,封禁解決的是"能不能交差"的問題,不是"數據有沒有真的安全"的問題。員工截圖發(fā)微信、用個人手機訪問、回家用私人電腦繼續(xù)查,這些路徑封禁一條都堵不住。
安全措施越粗暴,員工繞過的動機就越強,真正的風險反而從臺面轉入了灰區(qū)。
更難管,不是更安全。
3、保護區(qū)里長不出世界級選手
封禁帶來的第二個代價,比安全問題更隱蔽,也更深遠。
當員工只能用自家模型,產品團隊收到的反饋就失去了參照系。這件事很好理解。一個員工同時用LongCat和GPT處理同一個任務,他能告訴你:LongCat在這個場景下慢了三秒,長文本理解差了一截,但代碼補全其實還不錯。這種帶著對比的反饋,是產品迭代最有價值的信號。
把外部模型封掉之后,員工只會說"還行"或者"不好用"。好在哪里不知道,差在哪里也說不清。產品團隊在一個沒有參照物的環(huán)境里打磨,打磨出來的是數據,不是競爭力。
諾基亞的教訓很近。2007年iPhone發(fā)布前幾個月,諾基亞內部做過一輪可用性評測。工程師們用自家的Symbian系統(tǒng)完成各種任務,結論是觸屏鍵盤打字效率太低,用戶不會接受。
這個結論在諾基亞的體系里完全成立,因為評測環(huán)境里只有諾基亞的手機,參與評測的只有諾基亞的工程師。他們不是不專業(yè),而是整個測試從一開始就缺少那個最關鍵的變量:讓測試者同時拿著一臺iPhone。
等諾基亞的人終于拿到iPhone的時候,市場已經不給他們時間了。
京東的JoyAI、美團的LongCat,當然不是諾基亞。但道理是一樣的,一個模型如果在它最核心的用戶群里,不是靠比較贏出來的,而是靠制度被指定的,它得到的就不是真實的市場驗證,而是一種被保護的繁榮。
被審批保護的模型,很難長成世界級模型。
4、摩擦成本,足以扼殺創(chuàng)新
AI工具的很多價值,來自于隨手一試的靈感時刻。
一個產品經理在想一個功能邏輯,打開AI聊幾句,思路就捋清楚了。一個工程師在debug,把報錯信息粘進去,三十秒得到方向。一個運營在寫文案,用AI跑幾個版本,挑一個最好的。
這些行為的共同特點是:低門檻、高頻次、即時性。
申請制徹底破壞了這個特點。當員工需要填寫申請理由、等待審批、說明業(yè)務場景,大多數人會在第一步就放棄。不是因為他們不需要,而是因為成本太高了。一個靈感冒出來等兩天審批,黃花菜都涼了。
有研究表明,技術工具的采用曲線對摩擦極度敏感。一個多出來的確認按鈕,可以讓功能使用率下降30%。更遑論一套完整的申請審批流程。
美團京東的員工不是不想探索AI,他們只是被制度性地剝奪了探索的可能。
5、人才,會用腳投票
這是最容易被忽視,也可能是最深遠的代價。
今天的頂尖工程師、產品經理、設計師,已經把AI工具視為工作基礎設施的一部分,就像電、網絡、電腦一樣。
如果在某家公司上班意味著用一套受限的AI體驗,而在另一家公司可以自由使用最好的AI工具,選擇會怎么發(fā)生?
更別說現(xiàn)在很多公司免費給員工發(fā)放token了。
這一點不夸張。
工具自由度是硅谷工程師文化里的隱性福利之一。谷歌、Meta、Anthropic的員工有權使用市面上最好的AI工具,這本身就是一種吸引力。
京東美團這波操作,在人才市場上發(fā)出的信號是:來我們這里,你的工具箱會被縮小。對于最看重效率和工具的那批人來說,這是減分項。
等這個先例擴散,當更多大廠跟進,當封禁外部AI成為行業(yè)標配,中國互聯(lián)網公司整體的工具環(huán)境就會系統(tǒng)性地落后于全球競爭對手。
6、一個比喻,一個悖論
準確地說,現(xiàn)在是中國大模型最關鍵的時刻。
DeepSeek以一鳴驚人的姿態(tài)走向全球,阿里千問、月之暗面的Kimi都在努力擴展國際用戶,MiniMax、智譜上市之后,股價一路狂飆。
整個行業(yè)都在講一個故事:中國AI不差,中國AI要走向世界。但走向世界,需要什么?
需要高頻使用、真實反饋、快速迭代。需要在真實業(yè)務場景里被反復錘煉。需要用戶的使用數據來打磨邊界。
中國最好的練兵場,是超過10億級用戶的互聯(lián)網應用,是美團、京東、阿里、騰訊、字節(jié)這些日均數億次交互的平臺。這些平臺的員工和業(yè)務,本可以成為大模型迭代最好的實驗室。
但現(xiàn)在,這些平臺正在把門關上。
一邊是中國大模型迫切想要走向世界,另一邊是國內最重要的用戶場景正在筑起高墻。這堵墻不是保護中國AI的,恰恰是在削弱它應對全球競爭的土壤。
7、真正的競爭力,長什么樣?
有競爭力的策略,一定不是把門關上。應該是讓員工用最好的工具,同時保護數據安全。
這兩件事,并不矛盾。
企業(yè)可以談判采購AI工具的企業(yè)版,約定數據不出域、不用于訓練,甚至可以通過私有化部署,把模型運行在自己的服務器上,某些數據級別的工作只能用內部工具,其他場景自由使用。
這些方案更難,需要更多投入,需要安全、法務、IT的協(xié)同。但它們是真正解決問題的方式,而不是把問題掃到地毯下面。
把問題掃到地毯下面,員工會找到地毯的邊緣繼續(xù)用,只是現(xiàn)在是在灰色地帶里偷偷用。
這個矛盾不解決,喊得越響,落差越大。
【版面之外】的話
選擇封禁,本質上是用最低的管理成本,換取了最大的隱性代價。
如果這個先例擴散,如果封禁外部AI成為中國大廠的標配動作,護城河挖在自家院子里,守住的不是競爭優(yōu)勢。
是一潭死水。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.