![]()
(來源:麻省理工科技評論)
在嘈雜喧囂的 AI 世界里,什么才是真正值得關(guān)注的?《麻省理工科技評論》的記者和編輯花了多年時間思考這個問題,追蹤 AI 的進(jìn)展,描繪下一步走向。現(xiàn)在,我們第一次把答案濃縮成了一份清單。
受我們每年評選的“十大突破性技術(shù)”啟發(fā),這是一份全新的盤點:那些正在推動進(jìn)步或改變權(quán)力格局的 AI 大趨勢、大方向和新突破——它們定義著今天,也將塑造明天的可能性。
![]()
人形機器人數(shù)據(jù)
Humanoid Data
就像我們說的話和寫的字變成了大語言模型的訓(xùn)練數(shù)據(jù)一樣,人類運動的視頻如今也在被大規(guī)模收集,用來訓(xùn)練人形機器人。
這股風(fēng)潮始于一個簡單的類比:ChatGPT 靠海量文本學(xué)會了生成語言,那人形機器人能不能靠海量運動數(shù)據(jù)學(xué)會在真實世界里干活?問題在于,描述人類運動方式的數(shù)據(jù)集遠(yuǎn)不像互聯(lián)網(wǎng)文本那樣現(xiàn)成。虛擬仿真曾經(jīng)是替代方案,但仿真永遠(yuǎn)無法完美還原真實世界的物理特性,訓(xùn)練出來的機器人一到現(xiàn)實中就容易摔跤。
于是企業(yè)決定走笨辦法:直接收集真實世界的數(shù)據(jù)。世界各地出現(xiàn)了大型訓(xùn)練中心,工人穿著外骨骼一天擦幾百次桌子;尼日利亞和印度的零工把手機綁在頭上,在家拍自己做家務(wù);美國的快遞公司給員工裝上傳感器記錄搬箱子的動作,一邊研究工傷,一邊為未來可能取代他們的機器人積累訓(xùn)練數(shù)據(jù)。
2025 年,僅人形機器人領(lǐng)域就吸引了 61 億美元投資。但一段我打開微波爐的視頻到底值多少錢?要多少個這樣的片段才能教會一個機器人做晚飯?沒有人知道這條路能不能走通。
![]()
更強大的大語言模型
LLMs+
ChatGPT 之后,下一個大事件是什么?答案可能讓人意外:還是大語言模型——只不過更強、更高效、更能獨立干活。
當(dāng)前 LLM 的核心瓶頸在于:它們擅長回答一個問題,但讓它們連續(xù)工作幾天、獨立攻克一個復(fù)雜的多步驟任務(wù),就很容易跑偏或遺忘。要從“聊天助手”進(jìn)化成“AI 勞動力”,LLM 需要在三個方向上突破。
第一是效率。混合專家模型(MoE)把一個大模型拆成多個小模塊,每次只啟動需要的那部分,大幅降低算力消耗。擴(kuò)散模型和 DeepSeek 提出的“文本轉(zhuǎn)圖像編碼”等實驗性方案也在探索更便宜的計算路徑。
第二是工作記憶。兩年前 LLM 一次只能處理幾十頁文本,現(xiàn)在最新模型的上下文窗口已經(jīng)擴(kuò)展到了 100 萬個 token,相當(dāng)于一整摞書。但窗口越大,模型越容易在長任務(wù)中迷路。MIT CSAIL 提出的“遞歸 LLM”提供了一種新思路:把輸入拆成小塊分發(fā)給自己的多個副本,各自處理再匯總,在長任務(wù)上的可靠性遠(yuǎn)高于傳統(tǒng)方案。
第三是成本。部署 LLM 的費用正在急速下降,一些模型的服務(wù)成本按年化計算已經(jīng)降了幾百倍。
LLM 沒有過時,它正在脫胎換骨。
![]()
AI 詐騙
Supercharged Scams
ChatGPT 讓所有人看到了生成式 AI 的威力,犯罪分子也不例外。自 2022 年以來,網(wǎng)絡(luò)犯罪者迅速把 AI 工具整合進(jìn)了自己的作業(yè)流程:用 LLM 寫釣魚郵件、用深偽技術(shù)制作以假亂真的視頻、用 AI 自動掃描系統(tǒng)漏洞、讓惡意軟件變得更難檢測……AI 沒有從根本上改變黑客攻擊的本質(zhì),但它大幅降低了入行門檻,讓攻擊變得更快、更便宜、更容易規(guī)模化。
這種趨勢已經(jīng)在全球顯現(xiàn)。國際刑警組織警告說,東南亞的詐騙中心正在用廉價 AI 工具提速擴(kuò)量;阿聯(lián)酋聲稱挫敗了一系列由 AI 輔助的攻擊;Anthropic 則透露,其正在測試的模型 Mythos 在所有主流操作系統(tǒng)和瀏覽器中都發(fā)現(xiàn)了嚴(yán)重漏洞,公司因此推遲了模型發(fā)布,并聯(lián)合多家科技公司成立了名為 Project Glasswing 的防御聯(lián)盟。
攻擊在變強,防御也在跟進(jìn)。僅微軟一家,每天就要用 AI 系統(tǒng)處理超過 100 萬億個可疑信號,一年內(nèi)攔截了價值 40 億美元的詐騙和欺詐交易。讓攻擊成為可能的同一種技術(shù),也可能是未來防御的最大依仗。
眼下,基本的安全措施仍然能擋住大部分粗糙的 AI 輔助攻擊。但隨著公開可用的生成式 AI 能力不斷增強,未來面對更精密的攻擊時我們能否守住,還遠(yuǎn)沒有答案。
![]()
世界模型
World Models
AI 在數(shù)字世界里已經(jīng)很厲害了,但物理世界仍然是人類的地盤。寫小說、寫代碼遠(yuǎn)比疊衣服、上街導(dǎo)航容易得多。許多研究者認(rèn)為,要跨過這道坎,需要一種叫做“世界模型”的技術(shù)。
世界模型的核心理念是:讓 AI 像人類一樣在腦子里構(gòu)建一個外部世界的模型,用它來預(yù)測行動的后果,再據(jù)此做決定。你知道把杯子推下桌子會摔碎,是因為你的大腦里有一個夠用的物理模型。AI 目前還沒有這個東西。LLM 看似能回答“杯子推下桌會怎樣”,但研究表明這種“理解”很脆弱,稍微換個條件就徹底失靈。
這個方向最近突然熱了起來。谷歌 DeepMind 和斯坦福教授李飛飛創(chuàng)辦的 World Labs 都在積極推進(jìn),楊立昆從 Meta 離職創(chuàng)辦了專注世界模型的初創(chuàng)公司,OpenAI 也把關(guān)閉 Sora 視頻應(yīng)用后釋放的資源轉(zhuǎn)投到了“長期世界模擬研究”上。
目前的應(yīng)用還比較初級。谷歌 DeepMind 和 World Labs 在做的事情是根據(jù)文本、圖像或視頻生成可交互的 3D 虛擬環(huán)境,可以用在游戲設(shè)計和 VR 體驗中。《寶可夢 Go》的開發(fā)商則在用玩家收集的數(shù)十億張圖片構(gòu)建世界模型的雛形,目標(biāo)是引導(dǎo)配送機器人。
真正的突破可能要等到世界模型被整合進(jìn)靈活的智能體,既能理解環(huán)境,又能預(yù)判后果,還能自己做決定。到那一步,機器人才有可能真正走進(jìn)物理世界。
![]()
戰(zhàn)爭中的 AI 指揮
The New War Room
把伊朗沖突稱為第一場“AI 戰(zhàn)爭”并不準(zhǔn)確。從阿富汗到烏克蘭再到以色列,算法幫軍方做分析、識別目標(biāo)已經(jīng)有好多年了。真正新的東西是:指揮官們開始向基于大語言模型的對話式 AI 尋求行動建議,而不只是讓它幫忙分析情報。
過去十年,Maven 等 AI 系統(tǒng)干的是初級分析師的活,從海量監(jiān)控畫面和衛(wèi)星圖像中挑出有價值的信號。現(xiàn)在大語言模型讓這些系統(tǒng)變得更具交互性:軍方人員可以把一份潛在目標(biāo)清單丟給聊天機器人,讓它建議先打哪一個。Anthropic 的 Claude 已經(jīng)深度嵌入美軍作戰(zhàn)流程,以至于五角大樓說要花六個月才能替換掉它。
問題是顯而易見的。用過生成式 AI 的人都知道,同一個提示詞每次跑出來的結(jié)果不一樣,建議未必準(zhǔn)確。正常情況下用戶應(yīng)該逐條核查,但在“五分鐘內(nèi)決定打哪個目標(biāo)”的壓力下,核查很可能被省略。軍事專家還警告說,指揮官可能過度信賴 AI 把復(fù)雜戰(zhàn)場壓縮成一塊整潔儀表盤后呈現(xiàn)的畫面,而科技公司也可能借此對軍方?jīng)Q策產(chǎn)生不當(dāng)影響。
與此同時,五角大樓正計劃讓 AI 公司用機密軍事數(shù)據(jù)訓(xùn)練新模型,這將帶來全新的安全風(fēng)險,也讓硅谷與五角大樓的距離前所未有地近。
算法自動化軍事中的苦差事已經(jīng)有很長一段時間了,但現(xiàn)在生成式 AI 在作戰(zhàn)室里有了自己的席位,指揮官們開始認(rèn)真對待它的建議。它正在重塑軍方共享情報、與大型科技公司合作以及做出致命決策的方式。
![]()
被武器化的“深度偽造”
Weaponized Deepfake
隨著生成式 AI 的進(jìn)步和工具的普及,偽造圖像、視頻與音頻的門檻大幅降低,普通人也能制造高度逼真的虛假內(nèi)容。這些內(nèi)容已被廣泛用于色情制作、詐騙和政治操控,不僅傷害個體,也在更深層次侵蝕社會信任。
其中,女性與邊緣群體承受的影響尤為嚴(yán)重,大量深度偽造內(nèi)容帶有性剝削性質(zhì)。與此同時,政治領(lǐng)域的濫用也在加劇,一些 AI 生成的圖像和視頻被用于影響公眾認(rèn)知,甚至誤導(dǎo)選民。
盡管業(yè)界提出了技術(shù)防護(hù)、用戶自我保護(hù)和立法監(jiān)管等解決方案,但都存在明顯局限:技術(shù)可以被繞過,行為難以改變,監(jiān)管執(zhí)行也充滿不確定性。隨著美國中期選舉臨近,而相關(guān)監(jiān)管與研究力量卻在削弱,深度偽造可能進(jìn)一步加劇信息混亂。
當(dāng)真假難辨成為常態(tài),人們失去的或許不只是判斷力,而是對現(xiàn)實本身的信任。
![]()
多智能體協(xié)作
Agent Orchestration
當(dāng)前,生成式智能體(Generative Agent)正在擺脫只能“聊天”的功能邊界,走向任務(wù)的自主執(zhí)行。在此基礎(chǔ)上,多智能體系統(tǒng)通過角色分工與動態(tài)調(diào)度,可協(xié)同完成編程、調(diào)研、流程管理等復(fù)雜任務(wù),讓個體工作者具備團(tuán)隊級產(chǎn)出能力。從代碼協(xié)作到科研輔助,這類工具試圖將知識工作模塊化、流水線化,重構(gòu)白領(lǐng)崗位的價值鏈條。
效率提升的背后是控制力的讓渡。當(dāng)智能體開始操作真實系統(tǒng)、調(diào)用敏感數(shù)據(jù),模型幻覺、目標(biāo)錯位或提示詞注入都可能引發(fā)難以追溯的連鎖錯誤。而當(dāng)前評估標(biāo)準(zhǔn)、審計機制與應(yīng)急方案普遍缺位,技術(shù)落地跑在了安全基建前面。
更深層的拷問在于:當(dāng)我們習(xí)慣將決策鏈條交給自主代理,人類是變得更高效,還是逐漸喪失對過程的理解與干預(yù)能力?信任不該是黑箱的副產(chǎn)品,而需建立在可解釋、可回退、可問責(zé)的基礎(chǔ)之上。
![]()
中國的開源押注
China’s Open-source Bet
中國 AI 實驗室正以“開源”為杠桿,影響全球的開發(fā)者生態(tài)。不同于硅谷將核心模型封裝收費,DeepSeek、阿里巴巴的千問、月之暗面的 Kimi 等機構(gòu)選擇直接釋放模型權(quán)重,允許任何人下載、微調(diào)、本地部署。這一策略迅速贏得預(yù)算有限、追求靈活性的開發(fā)者青睞。去年中國開源模型下載量首次超越美國,阿里系模型的社區(qū)衍生版本數(shù)量已超過谷歌與 Meta 之和。
開源對于中國來說不僅是技術(shù)共享,更是地緣博弈下的務(wù)實路徑:在高端芯片受限的背景下,借助全球開發(fā)者的反饋與貢獻(xiàn),反而能加速模型迭代。
當(dāng)然,開放也伴隨著壓力。關(guān)于模型內(nèi)容合規(guī)約束、能力蒸餾爭議依然存在。但當(dāng)越來越多產(chǎn)品建立在中國開源底座之上,AI 技術(shù)的權(quán)力結(jié)構(gòu)已悄然重構(gòu):多極化不是預(yù)測,而是正在發(fā)生的現(xiàn)實。
![]()
人工智能科學(xué)家
Artificial Scientist
當(dāng)“自主探索”成為可能,AI 在科研中的角色正悄然轉(zhuǎn)變。如今的大模型已能檢索文獻(xiàn)、撰寫論文、生成代碼,而下一步的目標(biāo)更加清晰:打造能獨立提出假設(shè)、設(shè)計實驗、解讀結(jié)果的“人工智能科學(xué)家”。
2024 年,DeepMind 憑借 AlphaFold 斬獲諾貝爾獎,點燃了新一輪競爭。隨后,OpenAI 發(fā)布 GPT-Rosalind,Anthropic 深耕生物領(lǐng)域,谷歌推出多智能體協(xié)作工具——由不同角色分工配合,共同推進(jìn)研究流程。
突破不止于代碼。為彌補 AI“無法動手”的局限,研究者開始將其接入自動化實驗室:OpenAI 與 Ginkgo Bioworks 合作,讓 AI 自主迭代實驗方案,成功將某種蛋白的合成成本降低 40%。
但效率提升的同時,隱憂也隨之浮現(xiàn)。Nature 的一項研究提醒,當(dāng)科研過度依賴 AI 分析既有數(shù)據(jù),探索方向可能偏向“易建模、數(shù)據(jù)足”的領(lǐng)域,而那些冷門卻關(guān)鍵的問題,反而容易被忽視。技術(shù)可以加速發(fā)現(xiàn),但科學(xué)應(yīng)有的廣度與多元,終究需要人類主動守護(hù)。
![]()
人工智能抵制浪潮
Resistance
一股對人工智能的質(zhì)疑浪潮,正在全球悄然蔓延。人們擔(dān)憂的不再是遙遠(yuǎn)的科幻場景,而是眼前的現(xiàn)實:數(shù)據(jù)中心推高了電費,工作崗位被悄然替代,聊天機器人影響青少年心智,軍事應(yīng)用缺乏邊界,創(chuàng)作成果被無償調(diào)用。
抗議行動隨之浮現(xiàn)。倫敦街頭出現(xiàn)示威人群,美國不同立場的群體罕見聯(lián)合,簽署宣言呼吁“技術(shù)應(yīng)服務(wù)于人”;部分用戶因軍方合作卸載常用工具,家長聯(lián)名要求校園暫緩引入聊天機器人。民意調(diào)查顯示,多數(shù)公眾對 AI 的快速滲透持保留態(tài)度。
這些聲音已開始影響政策走向:紐約、加州為陪伴型機器人設(shè)立規(guī)則,英國在藝術(shù)家反對下撤回版權(quán)豁免提案,多地社區(qū)成功延緩數(shù)據(jù)中心建設(shè)。技術(shù)演進(jìn)的速度從未放慢,但越來越多的人希望,在塑造未來的過程中,普通人的關(guān)切也能被認(rèn)真傾聽。
https://www.technologyreview.com/2026/04/21/1135643/10-ai-artificial-intelligence-trends-technologies-research-2026/
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.