★置頂zzllrr小樂公眾號《小樂數(shù)學(xué)科普》新鮮送到!
譯者按:
本文屬于關(guān)注AI時(shí)代一線數(shù)學(xué)家們的系列報(bào)道《AI人工智能時(shí)代的數(shù)學(xué)家們》之一,作者是塔瑪拉?G?科爾達(dá)(Tamara G. Kolda),她是美國工業(yè)與應(yīng)用數(shù)學(xué)學(xué)會(SIAM)會士,她的專業(yè)領(lǐng)域?yàn)閿?shù)學(xué)算法與數(shù)據(jù)科學(xué)計(jì)算方法,尤其專注于張量分解和隨機(jī)化算法。
![]()
塔瑪拉?G?科爾達(dá)(Tamara G. Kolda)
本文最初作為特邀文章(原文標(biāo)題:《AI人工智能時(shí)代的數(shù)學(xué)研究——未來AI人工智能能否成為真正的合作者?》)發(fā)表于Silicon Reckoner博客,并且再次發(fā)表在SIAM官網(wǎng)。作者感謝Michael Harris提供機(jī)會與讀者分享此文。本文也可在作者的博客MathSci.ai上閱讀。
![]()
圖源:mathsci.ai
作者:Tamara G. Kolda(塔瑪拉?G?科爾達(dá))2026-2-21
譯者:zzllrr小樂(數(shù)學(xué)科普公眾號)2026-4-3
“首次證明”(First Proof,也即首輪驗(yàn)證) 實(shí)驗(yàn)的結(jié)果已經(jīng)出爐。首次證明(First Proof)是一個(gè)由數(shù)學(xué)家團(tuán)隊(duì)發(fā)起的項(xiàng)目,參閱,負(fù)責(zé)人包括Mohammed Abouzaid(斯坦福)、Nikhil Srivastava(UC伯克利)、Rachel Ward(UT 奧斯汀)與Lauren Williams(哈佛),旨在測試人工智能系統(tǒng)能否獨(dú)立解決研究級別的數(shù)學(xué)問題。項(xiàng)目提出了10 道原創(chuàng)問題,來自作者們在不同數(shù)學(xué)領(lǐng)域的真實(shí)研究,這些問題已有答案但尚未公開發(fā)表。(我本人也是問題貢獻(xiàn)者之一,參閱第10題)這些都是專業(yè)級問題,通常需要至少具備專業(yè)知識的研究生才能解答。該項(xiàng)目旨在建立一種真實(shí)可信的評估方式,衡量 AI 進(jìn)行真正數(shù)學(xué)研究的能力 (參閱:),并且計(jì)劃未來用新題目重復(fù)這項(xiàng)實(shí)驗(yàn)。
那么,AI 系統(tǒng)在第一批問題上表現(xiàn)如何?各大 AI 公司與個(gè)人研究者都提交了他們的解題嘗試,其中不少采用了AI 與人類協(xié)作的方式。我們自己測試了Gemini Deep Research與ChatGPT 5.2 Pro,它們在 10 道題中解出了2 道 (參閱)。我貢獻(xiàn)的第 10 題正是這兩道之一。積極的一面是,AI 找到了一種已發(fā)表的方法,而這種方法并未出現(xiàn)在我的原始解答中。但消極的一面是,AI 并未給出該方法的任何引用來源。我只是因?yàn)閮煞?AI 生成的答案高度相似,才懷疑它們調(diào)用了已知結(jié)論,最終不得不自己手動溯源。無論我們從這項(xiàng)實(shí)驗(yàn)中得出什么結(jié)論,有一點(diǎn)已經(jīng)非常明確:現(xiàn)代 AI 的出現(xiàn),將永遠(yuǎn)改變數(shù)學(xué)研究。
在深入展開之前,我想從數(shù)學(xué)角度解釋一下什么是現(xiàn)代 AI 系統(tǒng):它本質(zhì)上是一組由訓(xùn)練數(shù)據(jù)學(xué)習(xí)得到權(quán)重的方程系統(tǒng)。數(shù)百年來我們一直在使用數(shù)學(xué)模型,只不過通常只包含少量參數(shù)。在我剛做研究時(shí),我從事電路仿真模型,一般只有十幾個(gè)參數(shù)。而今天的 AI 模型擁有數(shù)十億甚至上萬億參數(shù),大到足以存儲人類知識的總和!關(guān)于 AI 是否靠 “記憶訓(xùn)練數(shù)據(jù)” 工作,目前存在大量爭論。但無論如何,AI 系統(tǒng)歸根結(jié)底是一個(gè)確定的數(shù)學(xué)過程:一組方程生成輸出,而這種形式化也意味著它容易受到數(shù)學(xué)攻擊。 https://arxiv.org/abs/2307.15043 盡管我尊重其他人可能持有不同觀點(diǎn),但我個(gè)人對 “AI 擁有意識或真正推理能力” 的說法不抱任何幻想;相反,我對 AI 系統(tǒng)在設(shè)計(jì)與訓(xùn)練上展現(xiàn)的創(chuàng)造力與突破感到震驚。
事實(shí)上,當(dāng)我在自己的數(shù)學(xué)研究中不斷嘗試使用 AI 時(shí),我越來越被它們的能力所打動。如果某個(gè)解法在 AI 的訓(xùn)練數(shù)據(jù)中可獲取,或能通過網(wǎng)絡(luò)搜索找到,那么 AI 很有可能解出這道題。令人印象深刻的是,即便解法使用了不同術(shù)語,或者需要從多個(gè)來源拼湊,AI 往往也能做到。在我看來,AI 做到這一點(diǎn)的可能性,與相關(guān)方法在文獻(xiàn)中的普及程度成正比。但有一個(gè)問題 —— 而且是致命問題——AI 模型無法可靠地提供知識來源。而缺乏事實(shí)核查是一個(gè)真正的隱患。AI 可能會自信滿滿地引用不存在、不真實(shí)的結(jié)論,或者直接剽竊已有文獻(xiàn),正如我在自己那道題的解答中觀察到的那樣。狀態(tài)好的時(shí)候,AI 能讓人眼前一亮;狀態(tài)差的時(shí)候,我見過它歪曲自己實(shí)際完成的工作,被指出錯(cuò)誤時(shí)裝作懊悔,然后再次重蹈覆轍。這一切都意味著,很難區(qū)分高質(zhì)量結(jié)果與數(shù)學(xué)垃圾:那些乍一看合理、但深究細(xì)節(jié)就會崩塌的答案。問題在于,人們太容易不加驗(yàn)證地接受 AI 的輸出了。
我對未來學(xué)術(shù)出版的擔(dān)憂之一,是“人類–AI 拼湊垃圾”的現(xiàn)象日益增多 —— 人類未經(jīng)仔細(xì)、耗時(shí)的驗(yàn)證,就把 AI 生成的劣質(zhì)內(nèi)容胡亂拼接成文。(“拼湊垃圾scrapple”類似肉碎混合制成的廉價(jià)食品,是粗制濫造spam的代名詞。)作為SIAM(美國工業(yè)與應(yīng)用數(shù)學(xué)學(xué)會)出版事務(wù)副主席,我處理過大量涉及作者誠信的案例,也親眼看到了依賴 AI 走捷徑帶來的代價(jià)。編輯與審稿人需要花費(fèi)更多精力來甄別低劣的學(xué)術(shù)成果。明顯的情況包括偽造引用;不那么明顯的則包括論證薄弱、引用缺失與邏輯混亂。我們已經(jīng)在NeurIPS等會議上看到了 “人類–AI 拼湊垃圾” 帶來的負(fù)面影響:虛構(gòu)引用正在危及這個(gè)曾經(jīng)備受贊譽(yù)的學(xué)術(shù)平臺的公信力。
那么,數(shù)學(xué)的未來將會怎樣?我們不妨假設(shè),目前 AI 系統(tǒng)存在的所有問題(比如引用錯(cuò)誤與虛構(gòu)事實(shí))都能被解決。到那時(shí),數(shù)學(xué)家的角色會是什么?
首先也是最重要的一點(diǎn):數(shù)學(xué)家的核心角色是判斷力—— 決定該提出什么問題、該證明什么定理、該編寫什么算法。這需要擁有經(jīng)驗(yàn)的人來完成,這也是導(dǎo)師的核心工作:幫助初入研究的學(xué)者選擇值得研究的問題。作為一名應(yīng)用數(shù)學(xué)家,我的主要職責(zé),是把利益相關(guān)方提出的模糊問題,轉(zhuǎn)化為具體的數(shù)學(xué)問題。一旦問題被歸約為數(shù)學(xué)形式,我常常會與才華橫溢的合作者一起尋找答案。
回頭來看,AI 能勝任這個(gè)角色嗎?也許 AI 可以解出一個(gè)給定的數(shù)學(xué)問題,但它沒有主動求解的意愿,沒有產(chǎn)生創(chuàng)造性洞見的動力,對問題是否有意義沒有判斷,對正確的研究路徑?jīng)]有立場。
與之相反,我的合作者們都有自己的觀點(diǎn)。他們能夠和我辯論我們提出的問題是否恰當(dāng),啟發(fā)我采用截然不同的方法,有時(shí)甚至徹底改變我的數(shù)學(xué)觀念。
未來的數(shù)學(xué)家無疑會把 AI 系統(tǒng)當(dāng)作強(qiáng)大的工具來使用 —— 就像當(dāng)年他們使用計(jì)算機(jī)和互聯(lián)網(wǎng)一樣 —— 但數(shù)學(xué)家不會被 AI 取代。
我對數(shù)學(xué)研究未來的期望是:研究成果將由那些真正關(guān)心工作結(jié)果、對結(jié)果的正確性負(fù)有責(zé)任感、并愿意付出艱苦努力(包括仔細(xì)核查 AI 的輸出)的人來完成。
致謝
我衷心感謝我的同事Mohammed Abouzaid(斯坦福)、Andrew Blumberg(哥倫比亞)、Ernest Davis(NYU紐大)、Gary Marcus(NYU, Emeritus)、Dan Spielman(耶魯)、Nikhil Srivastava(UC伯克利)以及Lauren Williams(哈佛),感謝他們對本文的見解與反饋。
參考資料
https://www.mathsci.ai/post/future-of-math-in-age-of-ai/
https://1stproof.org
https://www.siam.org/publications/siam-news/articles/essay-the-future-of-math-research-in-the-age-of-ai/
https://www.nytimes.com/2026/02/07/science/mathematics-ai-proof-hairer.html
https://www.scientificamerican.com/article/first-proof-is-ais-toughest-math-test-yet-the-results-are-mixed/
https://www.theatlantic.com/technology/2026/01/ai-memorization-research/685552/
https://arxiv.org/abs/2307.15043
https://fortune.com/2026/01/21/neurips-ai-conferences-research-papers-hallucinations/
https://www.nytimes.com/2026/01/25/opinion/ai-human-judgment.html
小樂數(shù)學(xué)科普近期文章
·開放 · 友好 · 多元 · 普適 · 守拙·![]()
讓數(shù)學(xué)
更加
易學(xué)易練
易教易研
易賞易玩
易見易得
易傳易及
歡迎評論、點(diǎn)贊、在看、在聽
收藏、分享、轉(zhuǎn)載、投稿
查看原始文章出處
點(diǎn)擊zzllrr小樂
公眾號主頁
右上角
置頂★加星
數(shù)學(xué)科普不迷路!
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.