![]()
數(shù)字計算主導了計算機世界這么多年,現(xiàn)在終于出現(xiàn)了一種新路徑,能在速度和能耗上大幅超越它。
北京大學人工智能研究院的孫仲團隊,聯(lián)合集成電路學院的研究者們,開發(fā)出一款基于阻變存儲器的模擬矩陣計算芯片。這項工作把模擬計算的精度推到了24位定點水平,解決了這個領域長達一個世紀的難題。
性能測試顯示,在處理大規(guī)模MIMO信號檢測這類科學問題時,它的計算吞吐量和能效,比頂尖的圖形處理器高出百倍到千倍。成果已經(jīng)在《自然·電子學》上發(fā)表,這不只是技術進步,還為人工智能和6G通信領域的算力瓶頸提供了新出路。
傳統(tǒng)計算機和GPU靠0和1的數(shù)字運算,精確度高,但遇到復雜數(shù)學任務,就顯得慢而耗電。模擬計算不同,它直接借用電路的物理特性得出結果,速度快,能耗低,可惜精度一直跟不上。
現(xiàn)在的電腦在處理通用任務如上網(wǎng)或游戲時,數(shù)字方式占優(yōu)。但在高密度矩陣運算上,模擬計算的潛力巨大。北大團隊的創(chuàng)新在于一個內部迭代校正機制:先用低精度電路快速得出粗略答案,再用高精度電路計算誤差,這個誤差反饋回去修正初始結果。重復幾次,精度就大幅提升。實驗中,解一個16x16矩陣,10次迭代后,相對誤差降到千萬分之一,相當于32位浮點數(shù)字計算的水平。
實際應用上,這個芯片在6G通信的MIMO信號檢測中表現(xiàn)突出。這是基站處理信號的核心瓶頸,只需迭代3次,就能達到高精度數(shù)字處理器的效果,誤碼率完全一致。吞吐量超過頂級GPU千倍,能效高百倍以上。這意味著在特定場景下,計算資源能更高效利用,避免大量能源浪費。
這項突破放在后摩爾時代背景下,更有意義。摩爾定律接近物理極限,芯片工藝難再縮小,人們開始探索新計算范式。從搜索到的信息看,除了模擬計算,量子計算和光計算也在推進。量子計算擅長并行處理復雜優(yōu)化問題,但目前受噪聲和穩(wěn)定性限制,還不成熟。光計算用光信號傳輸數(shù)據(jù),速度極高,能耗低,已在一些數(shù)據(jù)中心測試中顯示潛力。異構芯片則結合不同處理器類型,提升整體效率。這些路徑各有側重,模擬計算的優(yōu)勢在于對矩陣運算的專長,尤其適合人工智能訓練中的線性代數(shù)操作。
人工智能領域正面臨巨大能源挑戰(zhàn)。訓練大型模型如GPT系列,需要海量電力,全球數(shù)據(jù)中心能耗已占總電量的2%以上。6G網(wǎng)絡目標是實現(xiàn)超低延遲和海量連接,但集成AI后,能源消耗會進一步上升。資料顯示,AI能優(yōu)化6G的資源分配,減少浪費,但自身計算也加重負擔。
北大芯片的模擬方法,能在邊緣設備上高效運行AI推理,降低整體能耗。想象一下,在智能電網(wǎng)或自動駕駛中,這種芯片處理實時信號檢測,不用依賴云端,就能節(jié)省大量電力。這不只技術層面,還涉及可持續(xù)發(fā)展:減少碳排放,支持綠色計算。
我的看法是,這項工作可能開啟混合計算時代。未來系統(tǒng)或許數(shù)字部分管通用邏輯,模擬部分專攻高強度數(shù)學。結合RRAM技術,這種芯片在40nm工藝上已實現(xiàn)高精度,擴展性強,能集成到現(xiàn)有生產線。相比量子計算的昂貴冷卻需求,模擬計算更易推廣。
6G標準制定中,如果納入類似架構,網(wǎng)絡效率能提升一個臺階。但挑戰(zhàn)在于通用性不足,目前只適合特定任務。長遠看,它推動計算從純數(shù)字轉向多元范式,緩解AI爆炸式增長帶來的能源危機。
總的來說,這個芯片證明了改變計算原理,能帶來飛躍式進步。它不取代現(xiàn)有電腦,而是補充關鍵短板。在人工智能和通信迅猛發(fā)展的今天,這樣的創(chuàng)新至關重要,幫助我們應對算力短缺。希望更多研究跟進,讓這些技術盡快落地。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.