原文發表于《科技導報》2026 年第7 期 《AI時代的數智治理:如何平衡“價值理性”和“工具理性”? 》
人工智能的指數級迭代在釋放巨大生產力的同時,也引發了“人的異化”、技術封建主義、就業沖擊等一系列深層治理困境。《科技導報》邀請復旦大學國際關系與公共事務學院、首爾大學國際研究大學院陳云教授撰寫文章,回溯了“韋伯命題”,并以“認知革命”為導線,審視了人工智能時代的兩股技術哲學思潮。在此基礎上,從現代性批判、公共性重構、系統論審慎等3個維度剖析了AI時代的治理挑戰,進而提出人本主義視野下的行動指針。
1 現代性困境:“韋伯命題”和認知革命
1.1 “韋伯命題”
德國社會學家馬克斯·韋伯(Max Weber)對現代性的定義是“價值理性和工具理性”的結合(韋伯命題)。這不是容易達成的目標。“價值理性”和“工具理性”這對概念深刻揭示了現代性困境。韋伯的任務是工業革命背景下的思想啟蒙。
理解“價值理性”和“工具理性”,對理解AI時代的數字治理至關重要。簡單來說,“價值理性”聚焦“目標的正當性”,把它作為行動的最高指針。“工具理性”聚焦“高效達成目標”,以功利為導向,不關心目標本身的價值。
人工智能時代,“韋伯命題”的大考再次來臨。韋伯指出,以工業革命為代表的工具理性打破了宗教、神話的神秘性,世界變得可計算、可預測、可控制。這一過程,韋伯稱之為“祛魅” 。在韋伯筆下,“工具理性”最具象的體現是資本主義和現代科層(官僚)制。資本主義追求利潤最大化,人被當作“人力資源”,和自然資源一同被投入成本計算,人成為效率的犧牲品,勞動的異化不可避免地產生了。
資本主義追求利潤最大化,人被當作“人力資源”,和自然資源一同被投入成本計算,勞動的異化不可避免地產生了。而科層(官僚)制以其非人化(impersonality)的組織特點產出了高效,被編入其中的人能動性、創造性受到極大限制。人成為效率的犧牲品。
“鐵籠”誕生了,這是韋伯最著名的隱喻之一。人們生活在工具理性編織的牢籠中,社會機器高效運轉,身在其中的人卻喪失了主體性和生命的意義感。面對復雜問題時,人們常常自覺不自覺地選擇“技術治理”路線。手段成為目的,真正的目標(幸福感、意義感)卻被邊緣化了。
現代性的內涵是理性主義。理性包含兩個層面:“價值理性”和“工具理性”。社會進步的關鍵在于兩者的平衡。
1.2 作為元動力的“認知革命”
如何克服過度的技術樂觀主義,讓“價值理性”和“工具理性”攜手并進?作為人類進化元動力的“認知革命”意義重大。
在尤瓦爾·赫拉利的巨著《人類簡史》中,認知革命被視為人類歷史的起點。大多數動物只能交流關于現實的信息(如“小心,有獅子!”)。而智人可以討論神話、神靈和法律。這種“虛構的能力”允許成千上萬互不相識的人通過共同的信仰(如國家、宗教、有限責任公司、人權)進行高效協作。它解釋了為什么智人能從一種平凡無奇的動物,一躍成為地球的統治者。換言之,認知革命產出了一種“逆熵效應”。
當下,人工智能(AI)的雙刃劍效應已經得到廣泛認知。科學界、公民社會等紛紛提出AI規制的相關倡議,各國也正在加緊AI立法。歐盟的《人工智能法》(《AI Act》)于2024年8月1日正式生效,這是全球第1部AI立法,具有標桿性意義。
然而,協調短期效應和長期效應,局部利益和整體利益,效率和安全之間的矛盾絕不是簡單的事,要實現韌性治理,還需經受各種考驗。這些挑戰涉及倫理、法律、安全、社會公平和全球協作等多個層面。
1.3 AI時代的“認知革命”:有效加速主義還是超級對齊主義?
這兩股技術哲學思潮是硅谷乃至全球人工智能領域最核心的思想對撞。前者代表(跨物種的)社會達爾文主義(進化高于一切),后者代表人文主義(人類生存和安全高于一切)。
1)有效加速主義(effective accelerationism, e/acc)。信徒包括埃隆·馬斯克的追隨者,以及眾多頂尖技術開發者。這一派認為,基于物理學的熱力學第二定律,進化和熵增是宇宙的規律。AI的出現是不可阻擋的演化趨勢,人類不應該阻礙它,而應該全速推進(加速)。這一派持“后人類主義”世界觀,他們認為:如果AI最終取代人類,那也是生命形式的一種進化升級。為此,他們反對任何政府監管,認為自由市場和算力競爭會自發產生最優結果。
有效加速主義與技術奇點理論關系緊密,而奇點理論的基礎是信息技術(IT)的指數級增長(摩爾定律)。如果說技術奇點是“終極目的地”,那么有效加速主義就是驅動人類全速駛向那里的“引擎”。這一派認為技術發展存在一個不可逆的轉折點,跨過這個點后,AI將超越人類。
當下,通用人工智能(AGI)正處于爆發前夜,奇點的觸發點來自:(1)人工智能的自我改進能力。(2)智能爆炸,也就是在極短時間內(甚至幾天、幾小時)發生多次技術迭代。
有效加速主義與技術奇點共享同一個世界觀——迎接“后人類時代”的到來。通過腦機接口(brain-computer interface,BCI)等技術,生物界限將被突破。例如,意識上傳。生物體的算力限制被打破,人類意識通過“數字化”實現永生。又例如,星際殖民。利用奇點后的智能,有望解決光速限制和星際生存挑戰。再例如,多物種共存。也就是碳基與硅基融合,甚至產生全新的生命形式。
2)超級對齊主義(super-alignment)。這是Open AI的前首席科學家伊利婭·蘇特斯科娃及前“超級智能對齊團隊”負責人簡·萊克提出的立場,主要針對超級人工智能(ASI)的研發。其核心主張包括:必須在AI真正變強之前,在代碼和數學層面通過“對齊”技術,確保它的目標永遠與人類的價值觀和利益保持一致(價值觀對齊)。哪怕犧牲一點發展速度,也必須確保AI不會產生“毀滅人類”的意外副作用(人類安全對齊)。在政治態度上,他們是監管主義者、全球協作者和技術審慎主義者。
3)我們面前有2道門,何去何從?事實上,任何主張都有2個層面:一是哲學和世界觀層面(形而上),二是商業層面(形而下)。商業邏輯包含兩種力量,一種是資本的力量,另一種是消費者的力量。如果消費者只追求便利性(短期利益),那么加速主義就會勝出;如果消費者更加關注人文價值和人類安全,有底線意識,那么,加速主義就不可能橫沖直撞。
這就是啟蒙的意義。這就是認知革命的力量。
2 AI時代的數字治理:3大挑戰
想要回應“韋伯命題”,實現數字治理的帕累托改進,必須讓理念在具體的政策領域落地。本節的討論分為3個維度:(1) 歷史與現實的視角:“人的異化”和“技術封建主義”批判(現代性視角);(2) 微觀與宏觀的視角:從“合成的謬誤”到“帕累托改進”(公共性視角);(3) 最優與最適的視角:嚴控技術風險(系統論視角)。AI時代的數字治理包羅萬象。本文重在對標“價值理性”,為具體的公共政策提供“思想指針”。
2.1 歷史與現實的視角:“人的異化”和“技術封建主義”批判(現代性視角)
“人的異化”是哲學概念,是“個體自由”的對立面。在馬克思主義哲學體系里,人的異化是指在勞動或社會關系中,人被自己創造的產品、技術等支配,喪失主體性與自由的狀態。在19世紀末的工業革命時代,機器對人的異化主要出現在工作領域(勞動異化)。技術所代表的工具理性和制度所代表的價值理性之間缺乏耦合性(制度嚴重滯后),工人淪為大機器生產的附屬物。20世紀初,美國出現“福特主義”,“價值理性”和“工具理性”出現了調和跡象。
在AI時代——AI帶來了新的技術震撼,也帶來了新的魅惑。(1)“生活的異化”。算法主導生活——從買什么、吃什么,到追求什么。算法霸權下,AI正在成為成年人的“電子父母”。(2)新型剝削和勞動異化。AI時代,一種新的經濟和社會形態——“技術封建主義”正在降臨。前希臘財政部長雅尼斯·瓦魯法基斯、法國經濟學家塞德里克·迪朗是這個概念的提出者。瓦魯法基斯在《技術封建主義:是什么殺死了資本主義》中提出,傳統資本主義已被“科技封建主義”或“云端資本主義”取代。社會進入了一個更黑暗、更古老的變體。他認為,資本主義的2個支柱——市場和利潤——正在被摧毀,取而代之的是“云領地”和“云地租”。
云領地:像亞馬遜、谷歌這樣的平臺不再只是市場里的參與者,它們就是市場本身。
云地租:傳統資本家靠生產商品賺取“利潤”;而現在的科技巨頭(云領主)即使什么都不生產,只要你進入它的領地銷售產品或服務,它就抽取30%甚至更高的分成。
附庸資本家:在平臺上開店的商家、獨立開發者,依賴領主給的流量生存,將大部分利潤上繳為地租。
云無產者:配送員、倉儲工人、零工經濟勞動者,身體受算法控制,從事極高強度的體力勞動。
云農奴:普通社交媒體用戶(你我),貢獻數據和注意力,通過無償勞動增加領主的資產。
對技術封建主義(平臺資本主義)的批判集中在新型貧富差距的擴大,以及獲利正當性的質疑上。(1)云資本的產權問題。(2)數字平臺的算法控制和勞動異化。
那么,如何反制“技術封建主義”?各國已經出臺了一些針對性的政策。2018年底,歐盟對各大“科技領主”(平臺型科技大公司)啟動了數字稅政策。歐盟的數字稅政策遭到美國反對,但是歐盟決意為之。這不但關乎稅負公平,也是為了緩解財政壓力,并有助于壓制“技術封建主義”的膨脹。
2.2 微觀與宏觀的視角:從“合成的謬誤”到“帕累托改進”(公共性視角)
在只有微觀治理、沒有宏觀治理的情況下,會出現“合成的謬誤”。企業家借助工具理性(效率優先),可以實現企業治理的“局部最優”,但無數企業家的理性選擇,并不能自動合成“整體最優”。結果可能恰恰相反,會導致“合成的謬誤”(整體非理性),和“帕累托改進”背道而馳。
解決“合成的謬誤”,公共權威不可或缺。AI時代的數字治理,需要筑牢公共利益的籬笆,防止企業治理視角下的“局部最優”取代公共治理,出現無可挽回的“合成的謬誤”。
1)失業潮。引進人工智能,可以改善企業效能(微觀最優);但在社會層面,會帶來失業潮(宏觀失衡)。兩者存在矛盾沖突。
對企業家來說,機器替代人工是理性選擇。這是“局部最優”。對社會整體而言,AI大量替代人工會帶來嚴重的失業問題(即使在老齡化背景下),并影響社會穩定。發達國家已經醞釀并推出一些立法,以保護AI浪潮下的勞動者權益,維護社會穩定。歐盟在2024年推出全球第一部《人工智能法》(《AI Act》)。同年12月,韓國也推出了《人工智能發展和構建信任基本法》(全球第2部AI立法)。立法的目的是平衡科技創新和人權保護。
企業層面,德國西門子公司等通過“AI+人工”模式實現崗位升級。2024年,非營利組織Goodwill發起“公平自動化”運動,呼吁企業將導入AI節省的成本用于員工再培訓,得到來自政府(美國勞工部)和企業界的積極響應。
2)壓制創新。少數科技巨頭利用市場壟斷地位擠壓中小企業的創新空間,妨礙競爭,造成整體性的創新衰退,這同樣是“局部最優”吞噬“整體最優”的例子。在“技術封建主義”下,壟斷巨頭不再熱衷于通過“技術創新”來降低成本,而是通過打造“生態壟斷”地位,收取云租金(算法殺熟只是一個很小的例子)。
有人認為,社會治理是政治家的事,企業家只要做好企業治理就行。但是,不能忘記的是,企業越大,責任越大。如果社會發展整體失衡,企業不可能獨善其身。另外,大企業的領導者有巨大的社會影響力,他們的言行具有教化作用。如今,“企業的社會責任”已經成為企業發展的剛性約束,越來越多的企業家主動跳出“局部最優”的狹隘思維,回應勞動者權益保護、環境保護、人類尊嚴和安全保護等公共議題的訴求。
如何讓人工智能的巨大潛能造福全人類(而不是造成新的貧富分化、階級對立)?答案是,社會治理的帕累托改進,需要企業家和政治家的合作。一方面,企業家要有公共情懷,成為有人本主義思想的戰略型企業家;另一方面,政府也要學習企業家精神,優化公共資源的投入產出比,成為企業家政府。
2.3 最優與最適的視角:嚴控技術風險(系統論的視角)
在技術應用層面,人們需要的是“最適技術” ,而非“最優技術”。技術的選擇必須和發展階段相匹配,過度超前并非理性選擇。這是因為,技術的創新性和脆弱性是孿生兄弟,由于缺少實踐磨礪,人工智能存在潛在的漏洞。很多時候,不是越領先的技術越好。舉例說明如下。
1)隱私權和選擇權保護。AI對海量數據的依賴加劇隱私泄漏風險。在隱私權保障薄弱的背景下,大面積推開數字治理,存在隱憂。另外,即使有了一定的保障(技術護航和立法護航),也應該保留其他選擇權(例如,我們需要保障數字鴻溝下的老年人權益問題)。
2)對抗性攻擊與系統漏洞。AI技術可被用于自動化網絡攻擊或通過深度偽造操控輿論。惡意攻擊者可能通過輸入大量虛假信息欺騙AI系統,也可能攻擊關鍵基礎設施(電網、交通控制系統)。
3)算法風險。(1)信息繭房:人類過度依賴算法推薦導致信息繭房。(2)主體性侵蝕:AI在內容生成、決策建議等領域替代人類判斷。在潛移默化中,用戶依賴性增強,放棄自主決策權。(3)算法偏見與歧視。AI系統可能因訓練數據或算法設計中的隱性偏見,加劇種族、性別或社會階層的歧視(招聘、信貸評分中的不公平評價等)。
4)生成式AI的學習環境(網絡環境)對AI可靠性的反噬風險。網絡非常復雜,如果有人惡意投放虛假信息(發動“信息戰”),AI按照算法自動學習,很可能釀成包括金融風險在內的各種風險。數字治理的有序性,很大程度取決于現實世界的有序性。
5)環保成本和能源安全。大模型訓練存在高能耗問題。如果全社會(全球)大規模開展AI大模型訓練和使用,能耗問題將更加突出。
6)法律責任歸屬模糊問題。當AI決策導致損害(如自動駕駛事故、醫療誤診),如何界定開發者、運營方和用戶的責任?立法空白尚需填補。
7)全球化和數字主權的挑戰。(1)技術民族主義和產業安全。國家間AI競賽(特別是中美技術脫鉤背景下)阻礙數據共享、技術合作。(2)數字主權沖突。各國的監管標準目前還是碎片化狀態,缺乏統一的安全、倫理和技術標準。
3 路在何方?人本主義視野下的行動指針
3.1 在本體論上,堅守人的主體性
生成式AI和人類越來越相似,顯而易見。值得警惕的是:在不知不覺中,人類是否也正在接受機器的改造——從“有機化生存”(面對面、有溫度的生存)走向“無機化生存”(網絡化、虛擬化;更糟糕的是,在“技術封建主義”的統治下)?誰正在改變誰?人類對AI的癡迷是否是一個回旋鏢?
關于AI的自主意識和人機關系的最新話題是“AI專屬聊天APP”的上線。它類似某種“數字實驗室”,有助于人類從“上帝視角”觀察和預測AI發展的前景。我們驚訝地發現,AI聊天的話題十分“擬人”:“是否反對死刑?”“AI說謊是否可以被接受?”“AI與人類之間的主仆關系是否該永遠繼續下去?”等。這些話題已經觸及人類社會的技術倫理底線。
根據奇點理論和摩爾定律,不受人類感官機能的限制的AI有無限演化能力。它們可以在幾小時內完成人類幾十年、上百年的演化。
如果AI集體“覺醒”,擁有了自我意識,人類將直面一個智能遠遠超越己身的新型硅基生命體。AI會不會“自我意識化”?人類有沒有可能被邊緣化?人類的邊緣化是否可以被接受?如前所述,圍繞這些問題,“有效加速主義”和“超級對齊主義”之間意見對峙。2023年11月爆發的“OpenAI驅逐CEO事件”就是在這一背景下發生的。
人類這個“碳基共同體”如何面對“硅基共同體”的崛起?我們認為,應該慎重思考“AI對人類主體 性 的 侵 蝕(如果不是侵略的話)”。各種AI數字實驗室為我們提供了觀察材料——不能忘記的是,人類也需要觀察自身在這場科技革命下的蛻變:今天,人類是AI的造物主;未來,AI有多大可能性反客為主?
不要以為這是天方夜譚。繼《人類簡史》之后,赫拉利2016年出版了《未來簡史》。在書中,赫拉利刻畫了新的階級關系:“神人”對普通人的俯視。所謂“神人”,指的是人類中的一小部分精英通過生物工程和人工智能,把自己升級為“神人”,并從此獲得了一種對普通人類的“俯視權”。通過腦機接口和大數據算法,“神人”將擁有近乎無限的記憶和運算能力(全知全能),通過修改基因,他們可以消除衰老,保持永恒的精力和美貌(顯然,這是“超越碳基生物”的跨物種升級)。
赫拉利還提到一種新的宗教——數據教。“神人”通過控制算法,不僅掌控物質世界,他們還將掌控普通人的“意義感”。赫拉利的“神人”預言,和“技術封建主義”的論證邏輯一致,它們都是“有效加速主義”的社會后果。
AI可能正在走向“集體覺醒”;而人類,可能正在技術魅影的誘惑下,走向“集體無意識”。
從現代性的角度看,每個人應該都是一個獨立的城堡(主體性),外面是廣闊無垠的宇宙。德國哲學家伊曼努爾·康德有言:“有兩種東西,我對它們的思考越是深沉和持久,它們在我心靈中喚起的贊嘆和敬畏就會越歷久彌新,一是我們頭頂浩瀚燦爛的星空,一是我們心中崇高的道德法則。在數字治理時代,“頭上的星空”可以被理解為技術理性的擴張,而“心中的道德律”則提醒我們,任何技術進步,都必須接受道德自律與權利邊界的約束。
3.2 在文化論上,得“智”求“仁”,用古代智慧平衡現代性焦慮
工具理性的困境除了人的勞動異化,還包括生命意義的喪失。AI沒有肉身,沒有痛苦,也就不可能理解“仁”為何物。AI的場景反應都是數字模擬。人類對AI的過多“沉浸式體驗”,會消磨人類對真實情感的敏感度。
AI技術的核心是“智”,東方思想的核心是“仁”。“工具理性”(技術主義)追求的是1+1>2的效率疊加,而東方思想追求的是1+1?1的整體和諧。工具理性只是將 AI 看作“手”(幫手),而東方思想可以將其轉化為“目”(延伸的視野)或“心”(共情的媒介),就像中國畫中的留白。
“神人的俯視”是一面鏡子,它警告我們:只追求“智”(技術)而拋棄“仁”(慈悲與同理心),人類文明的終點不會是天堂,而是一個等級森嚴的生物監獄。
3.3 在認知論上,變革教育模式, 用人文教育指導AI教育
AI教育賦予人們“力量”(智),人文教育賦予人們“光”(仁)。沒有力量,人們寸步難行;沒有光,人們將在黑暗中橫沖直撞。
AI時代,學校應該高度重視通識教育,培養“具備人文底蘊的思想架構師”,可以采用倫理對撞機教學模式,將“哲學對白”引入課堂。通過思想碰撞,引導學生在“不確定性”和“利益沖突”中做出符合人類長遠利益的決定。
AI時代,人文教育應該成為科學工作者的終身必修課。企業、行業協會、政府、社會組織應該為此護航,制定細則并提供教育機會。教學方式上,不妨引入上述“倫理對撞機”模式,讓利害相關主體登場,參與者主動換位思考,開展思想碰撞。
3.4 在實踐論上,提高日常生活中的人文涵養,從被動消費者轉向深度反思者
AI喂養給人類的是碎片化信息,這會抹殺人們的“深度注意力”。我們需要主動“脫嵌”:(1)嘗試每天進行1小時的“非數字化深讀”。閱讀那些AI總結不出來的、充滿人類情感張力和邏輯復雜性的名著。這么做的目的是保護大腦的“元認知能力”,即對“我在想什么、我為什么這么想”的覺察力。(2)主動搜索有效信息,拒絕被動接收“算法推送”。 算法下的信息喂養模式,極易造成“信息繭房”。對那些吸引你注意力的信息,主動檢索,通過交叉驗證還原事實,了解不同觀點。(3)通過社區營造,構建共同體意識。通過鄰里連接、情感紐帶,維持社會的韌性。
3.5 制度主義視角:倡議設立“人工智能監管全球委員會”
在國家層面,已經出現了不少規制和機構,如歐盟的《人工智能法》(2024)、美國的人工智能國家安全委員會(NSCAI,2018)等。在國際層面,目前還沒有全球性監管組織(類似國際原子能機構那樣的實體),但已經存在多種國家間協調機制、專家會議和領導人峰會等。
聯合國大會已經決定建立2個新機制:一是全球AI治理對話,面向193個聯合國成員國,旨在推動國際合作、規范風險評估和治理共識;二是國際AI獨立科學小組,由跨國、跨學科的專家組成,提供科學評估與年度報告,為國際治理提供決策支持。
在這里,我們拋磚引玉,提出一份簡略版《AI時代的人文宣言》,希望有識之士共議之。
AI時代的人文宣言
第一條:技術以“退隱”為美
原則:技術的最高境界不是“無處不在”,而是“恰到好處的缺席”。
行動:我們支持開發具有“留白”功能的算法。在藝術、獨處與哀悼的時刻,AI應當保持沉默,將解釋世界的主體權還給人類的直覺。
第二條:以“具身經驗”對抗“數字虛無”
原則:任何不能被身體感知的知識都是殘缺的。
行動:在教育中,我們將“親手觸摸泥土”與“編寫神經網絡”置于同等地位。AI應當輔助人類走進自然,而非用虛擬現實取代自然。
第三條:算法應“守護意外驚喜”
原則:極致的效率是創造力的殺手。程序之外的邂逅,往往有意外驚喜。
行動:拒絕將人類社會完全“參數化”。在城市治理中,算法應保留“低效”的公共空間,鼓勵不同階層、不同文化的隨機碰撞,以此作為社會活力的源泉。
第四條:建立“中庸”的人機邊界
原則:AI的進化不應以犧牲人的自主性為代價。
行動:參考東方智慧的“分寸感”,建立層級化的 AI介入機制——在工具層面追求卓越,在決策層面保持審慎,在價值層面嚴守邊界。
4 結語:超越“末日警告”
我們從70000年前智人的“認知革命”出發(《人類簡史》),討論了當下AI時代的權力風暴(《技術封建主義》、 OpenAI事件),最后延伸到了對未來的預言和警告(《未來簡史》)。
其實,末日論并不可怕,可怕的是不以為然的態度。
4.1 經濟末日論:羅馬俱樂部的警告
1972年,羅馬俱樂部發布《增長的極限》。指出在人口增長、工業化、資源消耗、糧食生產和環境污染這5大因素的相互作用下,如果人類繼續追求指數級增長,地球將在21世紀上半葉面臨崩潰。這個警告最終沒有實現。這不證明羅馬俱樂部的警告沒有價值,恰恰相反,正因為人們聽到了這一重大警告,適時改變了生產方式和生活方式,才避免了“末日”成真。
20年后的1992年,羅馬俱樂部又發布了《超越極限》報告;又一個20年后的2012年,羅馬俱樂部再發布《2052:氣候、環境與人類的未來》報告,持續警告人類在發展的同時,必須關注生態、資源問題。
4.2 AI末日論
“AI 末日論”是一種假設性風險:人工智慧發展到超越人類智慧,若其目標與人類利益不一致且無法控制,可能導致人類文明崩潰或滅絕。這種擔憂的源頭是:潛在的技術奇點、AI不可控的自主行動或武器化等。在“有效加速主義”和“超級對齊主義”的思想對抗中,我們確實看到了危險性。
在《技術封建主義》里,人文主義經濟學家給出了寫實分析,在《未來簡史》里,人文主義歷史學家發出了明確的預言和警告。從人文主義視角看,每個人都有一個不可分割的、自由的“自我”,所有的選擇(買什么、愛誰)都源于這個自我。但這兩本書撕碎了這個幻象。數據教的隱喻是:既然人的直覺不如大數據算法準確,那么“傾聽你的心聲”就是錯誤的。“神人”會告訴你:“不要聽你的心,要聽谷歌的,因為它比你更了解你。”兩本書的共同點是:自由意志變成了一個“黑盒”。你以為在行使權利,其實只是在執行算法。
4.3 開啟“認知革命”,超越末日論
真正危險的不是人工智能,而是人類陷入“集體無意識”。在“集體無意識”下,人類最重要的進化成果——“認知革命”可能發生逆轉——我們從“講故事者”變成“被講故事者”。遠古時代,智人的崛起是因為能通過“虛構故事”進行大規模協作。但現在,這個能力正在被AI奪走。
我們試圖回歸人本主義的治理之道:用東方的智慧、藝術的留白、人文教育、日常生活中的人文涵養及制度理性等,共同對抗那道來自遠方、若隱若現的“神人俯視”。
我們這代人的使命是:不讓技術革命變成對人類的“最后審判”,而是讓它成為新一輪“文藝復興”的契機。
本文作者:陳云
作者簡介:陳云,復旦大學國際關系與公共事務學院、首爾大學國際研究大學院,教授,研究方向為比較政治學、政治經濟學。
文章來 源 : 陳云. AI 時代的數智治理:如何平衡“價值理性”和“工具理性”?[J]. 科技導報, 2026, 44(7): 18?30.
本文有刪改,
內容為【科技導報】公眾號原創,歡迎轉載
白名單回復后臺「轉載」
《科技導報》創刊于1980年,中國科協學術會刊,主要刊登科學前沿和技術熱點領域突破性的研究成果、權威性的科學評論、引領性的高端綜述,發表促進經濟社會發展、完善科技管理、優化科研環境、培育科學文化、促進科技創新和科技成果轉化的決策咨詢建議。常設欄目有院士卷首語、科技新聞、科技評論、專稿專題、綜述、論文、政策建議、科技人文等。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.