!!其實就是編不下去了。
!!卡情節了,倒不是我瞎編不出來,而是量子力學太反直覺。在嘗試將量子力學的方法應用到宏觀世界的過程中,巨大的計算工作讓人絕望。
所以扯點別的,扯點關于大模型的。扯點最近使用AI大模型的感受和個人觀點。
當前的LLM AI 大模型的應用場景是語言類服務。最初我認為大模型最大的應用場景是“溝通無障礙”。不管是哪國人,說著哪種語言的陌生人,都可以在大模型的幫助下無障礙的溝通。
但現實并非如此,我低估了語言的力量和文化的隔閡。就算不提大模型越來越嚴重的幻覺導致的詞不達意,錯漏百出,不同語種間的人依然困在母語的牢籠之內。
為什么會這樣的?是因為社交媒體接入的大模型沒有提供翻譯服務嗎?是因為大模型的翻譯功能依然差強人意嗎?
似乎并非如此,社交媒體的翻譯功能早在大模型出現之前就已經接入。使用大模型的翻譯質量已經非常接近人工翻譯的水平。雖然大部分時候離“信雅達”還有些距離,但比非專業人員還是強了那么一丟丟的。我有玩過一個游戲,這個游戲里的聊天室就內嵌了實時翻譯功能,不管聊天室里的人用哪國語言。在你的終端都是以簡體中文顯示。雖然大部分的俚語翻譯結果都很奇怪,但并不妨礙聊天室里的人談天說地。從技術上來說,語言早就不應該成為認知世界的障礙了。
既然語言已經不是問題,為什么我們還是被困在母語的牢籠之內?
第一個原因是渠道。在茫茫人海中,一個人要結識另一個人,需要機緣和平臺。以前人們天真的認為互聯網會給我們提供這個平臺,結果平臺推薦算法只給你喂與你使用同種語言的內容。甚至于只給你喂與你發表的觀點類似的po。最終的結果就是在互聯網這大網下,認知空間反而越來越小了。
第二個是認同,這也是最主要的原因,也是推薦算法慢慢將一個人的認知越箍越緊的根本原因。相同的語言和文化環境往往產生最愿意接收的信息,源于與自身的息息相關,源于多巴胺,源于孤獨的空虛。在互聯網的完播率,點擊率這種績效刺激下,催生出的推薦算法讓人迷失在“原來世界都是草臺班子,全世界都不過如此”的解脫或是是而非的自我滿足中。最終將每個獨立的各體禁錮在看似了然一切的繭中。最終丟失主動性,只接收那些喜歡看的,甚至是別人讓你看到的內容。這也是騙子們最容易得手的切入點,先用共同話題獲取認同和信任;然后通過偷換概念或不斷的暗示騙取財物。
最終,AI和互聯網并沒有讓我們的眼界更廣闊,思維更有深度;恰恰相反,束縛認知的繭更密了,認知的空間更狹小了。生長在互聯網時代的90后,00后,10后們,對于世界,對于過去,對于超過周身半寸之外的世界真的比60,70后了解的更多,更真實嗎?不見得吧?如果事實如此,他們視角中的方寸又是什么樣的呢?當他們不得不走出方寸的時候又能否夠抗住那如山海般的失落呢?純屬發散,與我無關。
還是來聊AI吧。
現在的LLM依賴的神經網絡,根本上就是一堆用訓練進行擬合的量子點。在訓練發生之前,我們甚至不確切的清楚某個神經元被賦予了隨機數池的哪一個值。經過訓練之后,每個神經網絡中的神經元與訓練內容中的各個信息元產生強耦合。當我們向LLM發起交互時,這個巨大的網絡將那些在概率上,與我們的輸入最契合的信息元組合起來,最終組織成給我們的回復。
從簡化的視角來看,LLM和量子力學當前的理論很相似。一個未經訓練的LLM就是一團量子云,每個量子的狀態是未知的。訓練就是用觀察者信息讓量子云中的量子坍縮,當觀察者的輸入信息足夠多,量子云完全坍縮之后,就不在呈現整體的量子狀態而表現出宏觀視角下的確定結果。下降梯度,激勵機制自然就是加速這一過程的催化劑。
那么問題來了,正如量子并非總是表現出人們期望的,或者計算的結果相符的特性。(量子世界的觀察結果往往以概率的不確定性出現。甚至于為了發現隱藏在概率之下的微弱變化,衍生出了弱觀察這種在誤差的邊緣尋找現象的理論。)LLM的輸出也會出現游離在正態分布之外的錯誤,誤導,甚至瞎編的結果。當然LLM訓練樣本和資料庫(互聯網)中的錯誤,虛假信息越多,AI幻覺出現的概率也就越高。
一個真實的例子來自于人體免疫系統是否可以消滅癌細胞?
AI給出的回答是:
簡單來說:是的,人體的免疫系統每天都在識別并嘗試消滅癌細胞。
這種機制被稱為“免疫監視” (Immune Surveillance)。在健康人體內,細胞分裂時偶爾會產生變異,其中一些變異可能導致細胞癌變,但免疫系統通常能在這些細胞形成臨床可見的腫瘤之前,就將其精準清除。
事實如此嗎?
我們繼續問:為什么癌癥的自愈率這么低呢?
AI會回答:
雖然免疫系統很強大,但癌細胞具有極強的“進化”和“偽裝”能力,這就是為什么癌癥仍會發生的原因:
- 釋放干擾素: 癌細胞會釋放一些化學物質,讓周圍的免疫細胞“昏昏欲睡”或失去攻擊力。
- 物理屏蔽: 腫瘤可以產生厚厚的結締組織(基質),像圍墻一樣把免疫細胞擋在外面。
- 假情報(免疫檢查點): 癌細胞會在表面表達 PD-L1 蛋白,這相當于給T細胞展示一張“免死金牌”。當T細胞接觸到這個信號時,攻擊行為會被強制鎖定(就像剎車一樣)。
你看,癌癥之所以難以治愈就是因為癌細胞具備這些抵抗或者騙過免疫系統的手段。AI給出的答案就是免疫系統能對抗癌細胞,但是它做不到或者無法識別癌細胞。這不是明顯的前后矛盾嗎?臣妾想但是臣妾做不到?
癌細胞能夠抵抗或者騙過免疫系統不正是癌細胞的特征嗎?如果你賣弄了AI的第一個回答,那么大概率你不適合當醫生。
當前除了放療,化療之外治療癌癥的方法,也是最新的醫學嘗試是怎么做的呢?
靶向治療,破壞癌細胞無限增生的生長環境。如:EGFR 抑制劑。
免疫療法,破除癌細胞的偽裝。如:免疫檢查點抑制劑 (PD-1/PD-L1)。
如果上面講的是AI不可靠,那么下面就是AI的局限。
1 記憶丟失或稱之為“災難性遺忘”。
我不止一次的發現,AI無法記住你交代它要記住的任何事。不管你和AI之前談過什么,給它說明過多少遍基礎設定。它都會在后續的對話中忘記這些設定。我嘗試過在同一個對話中預埋一個設定,然后在這個對話的某個階段LLM會出現違反設定的內容。
2 固有信息依賴,不管是對的還是錯的信息依賴。
之前的內容對于折躍技術進行過簡單的討論,結論是以當前的科技和理論水平,人類完全無法實現空間折躍。但是當以此為基礎與LLM進行探討時,它總是不自覺的出現折躍這種星際航行方法。我一再進行糾正后,問LLM為什么它會一再的出現這種討論議題之外的技術?LLM的回答是:它檢索和訓練內容中關于星際航行的部分,絕大多數都使用的是曲率和折躍技術。事實是這是一個先有幻想然后才由理論物理學家得出數學可能,而在當前工程水平下完全無法實現的技術。
3 固定的模式。
如果你看多了LLM創作的文字,你回發現都是一個味。以至于我現在只要看一眼文案就知道是不是AI創作的。
4 無法創新,或者說無法計算新的變量。
虛構的文學作品總是會在需要的時候,引入新的人物,或者情節的轉折。但如果你讓AI一直持續的書寫一個議題,它無法創造出一個新的任務或者一個轉折。AI創作的文字不是像流水賬,而是就是流水賬。看似細膩,實則如八股一般。
5 無法書寫連續長文。
有人會說這是因為你用的AI不夠好。實際上越好的AI越會限制長文理解。為什么?因為成本,越多的要素意味著越多的上下文關聯,也就意味著越多的token請求。體積越大的LLM,對于長上下文的關聯檢索越多,意味著越多的計算量,越多的電力消耗。據說有公司的程序員在兩分鐘內花費了47美元用于讓AI生成代碼片段。
基于以上這些,當前的AI大模型缺乏能體現價值的應用場景。所以運營語言大模型的企業在高投入后,如何找到盈利模式還是一個大問題。這也是資本市場盛行AI經濟泡沫擔憂的根本原因。
當然,LLM不過是AI技術發展的一個階段。在專業領域,如:醫藥,輔助設計等領域,專用AI依然擁有廣闊的市場和光明的前景。
關于AI未來的發展方向。
有將灌輸督導訓練轉向經驗訓練的理論。讓AI通過試錯積累經驗的路徑發展出智能。
有AGI,構建邏輯世界模型, AI 不再僅僅學習語言,而是通過視頻、物理引擎學習現實世界的物理規律(例如:重力、碰撞、因果關系)。
總之,當前的LLM并不是一個可以完全信任和依賴的工具,還不具備改變世界的能力。但將來擁有無限的可能,AI也如此。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.