![]()
AI不只是一種預測工具,它正在判決大多數人的命運。
AI的問題,最終不僅僅是技術問題,而是一個關于自由的問題。在AI時代,一個最大的自由和權利,就是不被算法提前算完的自由和權利。
有一類變化,往往是在它已經深深進入生活之后,人們才意識到它不只是一種新的技術”,而是一種新的社會力量。
人工智能就是這樣。
很多人談論 AI 時,依然停留在一種相對膚淺的想象里:它是一個更聰明的搜索引擎,一個更高效的寫作助手,一個會聊天、會整理資料、會生成圖片和代碼的工具。
它當然也是這些東西。但這恰恰構成了普通人對 AI 最大的誤解:我們總以為它只是工具,卻沒有意識到,一旦 AI 進入招聘、貸款、保險、教育、司法、治安和平臺推薦等制度性場景,它扮演的就不再只是工具角色,而是一種分配機會、定義風險、預審未來的權力。
工具幫助你完成一件事。權力則決定你有沒有資格進入某種生活。
這正是現代人最深的一個認知陷阱。
二十世紀八十年代,芝加哥大學的一批金融經濟學家發現了一件讓他們自己都不敢相信的事。他們研究的是一個叫 Black-Scholes 的期權定價模型,這是一條 1973 年由兩位經濟學家推導出來的數學公式,據說能算出任何一份期權的"合理價格"。這條公式復雜得不像話,普通交易員根本讀不懂。
但它改變了市場。
在這條公式出現之前,期權市場的定價是混亂的,不同交易員給出的價格千差萬別。公式普及之后,所有人都開始用它。結果并不是"市場被準確描述了",而是市場開始按這條公式的樣子生長。市場原本不是那樣的,但越來越多的人按這條公式行動,市場就慢慢變成了公式所描述的樣子。
有一位叫 Donald MacKenzie 的社會學家花了很多年研究這件事。他是愛丁堡大學的教授,主要研究金融技術和社會的關系。他把這個現象寫成了一本書,書名起得極好,叫做《An Engine, Not a Camera》,翻譯過來就是“是引擎,而不是照相機"。
這本書的核心洞察很簡單。我們以為金融模型像一臺照相機,忠實地記錄市場的樣子。但事實是,它更像一臺引擎,市場按它的驅動在運行。
模型并不是在描述現實,模型在制造現實。
這句話搬到今天的 AI 身上,每一個字都成立。
你想想看。一個招聘算法預測某個候選人"不適合這個崗位",公司就不給他機會,于是這個人沒有這段工作經歷,于是他下次投簡歷時履歷更弱了,于是他下一次更難被雇用,于是算法的預測"得到了驗證"。
一個信貸模型預測某個人"違約風險偏高",銀行就不給他貸款,于是他失去了一次可能扭轉財務狀況的機會,于是他真的越來越窮,于是下一次任何銀行看到他,都會得出相同的結論。
一個平臺推薦算法預測某個創作者的內容"用戶興趣度低",就把他的流量壓下去,于是這個創作者沒人看,于是他的數據更難看了,于是算法更不推他,于是他真的失敗了。
這就是今天 AI 最值得警惕的地方:它不只是預測未來,它正在策動、決定、參與分配未來。
而比這更可怕的是,很多時候,人們甚至意識不到自己正在被“判決”。因為算法不像法官那樣坐在高臺上,不像警察那樣穿制服,也不像老板那樣有一張明確的臉。它往往只是以一種看似客觀、理性、技術中立的方式出現:一個分數,一個標簽,一項概率,一次排序,一條“系統建議”。
但正是這種沒有面孔的判斷,更容易讓人放下警惕。人們總覺得,既然它是算出來的,那大概就是事實;既然它是數據驅動的,那大概就比人的偏見更公正。
問題恰恰在這里。我們低估AI,不是因為我們不知道它聰明,而是因為我們仍然在用“工具”的眼光看它,而它早已在現實中長成了一種“命運權力”。
![]()
德爾菲神諭
一、從神廟到算法:預測從來都和權力綁在一起
古代世界最著名的神諭,或許是古希臘的德爾斐神廟。
那個地方很奇怪。人們長途跋涉去那里,不是為了獲得一個精確答案,而是為了獲得一種合法性。城邦要不要開戰,國王要不要改革,個人要不要遠行,人們去問神諭,往往不是因為神諭真的比誰都懂,而是因為神諭可以把本來充滿爭議的事情,包裝成一種超越爭議的命運安排。
一旦“神說如此”,原本需要承擔的責任、解釋和辯論,都會在某種程度上被消解。決定不再只是人的決定,而成了天意的傳達。
這正是神諭最重要的政治功能:它不只提供信息,它還提供權威。
今天我們當然不再去神廟問命運。但我們對“不會錯的聲音”的迷戀,并沒有消失,只是神諭換了形式。
它不再以神職人員的口吻發聲,而是以模型、評分、概率和數據分析的面貌出現。它不再說“你命中如此”,而是說“根據歷史數據,你有 87% 的概率違約”、“根據行為畫像,你不適合這份崗位”、“根據綜合評估,你屬于高風險人群”。
從外表看,這與古代神話毫不相干。一個來自祭司的預言,一個來自服務器的預測,似乎分屬兩個完全不同的文明階段。可它們在社會中的作用,卻驚人相似:都在把本來可以爭論、可以申訴、可以重新判斷的事情,包裝成一種看似客觀、不可置疑的結論。
古代神諭的威力,來自人們相信它連通神意;現代算法的威力,來自人們相信它連通事實。前者借神圣性獲得權威,后者借客觀性獲得權威。但對于普通人的命運來說,兩者都可能產生同樣的效果:你的未來不再由一個具體的人來公開判斷,而是交給了一套你無法看見、難以質疑、也很少能真正申訴的機制。
這就是為什么,預測從來不只是一個知識問題。它也是一個權力問題。
因為誰有資格預測別人,誰往往就有資格安排別人。對天氣的預測不會損害云層的尊嚴;但對人的預測,會改變一個人能不能被錄用、能不能借到錢、能不能搬進一個更好的社區、能不能從某種處境中翻身。預測一旦進入制度,就不再只是看未來的方式,它還會成為塑造未來的方式。
在這個意義上,AI 并不只是提高效率的工具,它正在接管神諭曾經擁有的一部分社會功能:為權力提供一種看起來無可爭議的外衣。
二、AI不是“預測未來”在“制造未來”
許多人談到 AI 預測時,默認它像一面鏡子。現實是什么樣,它就把現實照出來;人的風險、能力和潛力是什么樣,它就更準確地識別出來。按照這種想象,算法最多只是比人更聰明、更快、更少情緒干擾的判斷者。
但這恰恰是最危險的誤會之一。
在很多制度場景里,AI 不是照相機,而是引擎。它不是把未來拍出來,而是在把某種未來發動出來。
這個道理并不復雜。一個系統如果預測某人“違約風險高”,銀行就更可能拒絕貸款;拒絕貸款之后,這個人失去創業、渡過資金難關或者改善生活的機會,未來的財務狀況自然更差。于是系統看起來像是“預測對了”。可它到底是在預測,還是在通過拒絕幫助,把那個糟糕的未來推向現實?
一個招聘模型如果根據歷史數據判斷某類背景的人“穩定性不足”或“績效預期偏低”,公司就更不愿意給他們面試機會。沒有人給機會,他們當然無法在現實中證明自己。
多年之后,模型回頭看數據,發現這類人果然“進入公司比例更低、成材率也不高”,于是它顯得越來越準確。可這種準確,究竟是看見了現實,還是制造了現實?
一個社區如果被系統預測為“高風險區域”,更多警力和監控就會被投放進去,于是更多輕微違法行為也會被捕捉、記錄和統計。久而久之,數據繼續證明這個地方“風險更高”,政策也因此進一步向那邊傾斜。
可問題是,這個地方更危險,是因為它本來如此,還是因為它被預先當作危險來對待,于是產生了更多“危險證據”?
社會學里有一個非常著名的概念,叫“自證預言”。
意思是:一個起初并不完全真實的判斷,會因為人們相信了它并據此行動,最后使這個判斷看上去成了真。托馬斯定理說:“如果人們將情境定義為真實的,那么它們在結果上就會是真實的。”這句話聽起來像繞口令,其實說的是最樸素的社會機制:人不是在純粹客觀的現實里行動,而是在自己所相信的現實里行動;而正是這些行動,最終塑造了那個現實。
AI 預測最深的危險,就在這里。它并非簡單地向我們報告未來,而是在越來越多的場景中,誘導制度和人們按照它的判斷來行動。于是,預測開始變成一種施加力量的方式。
它說你“不值得信任”,世界就先對你關閉一部分信任;它說你“成功概率偏低”,機會就先從你面前撤走;它說你“更可能有風險”,規則就先向你收緊。最后,預測看似被現實驗證,實際上是現實先服從了預測。
所以,AI問題的核心,不只是“準不準”,而是它的預測會不會反過來成為一種判決。
預測看起來像是在描述世界,實際上卻常常具有“規范性”。它在暗中告訴我們該怎么做。一個大語言模型告訴你,未來大家都會用某種技術辦公,它表面上是在描述趨勢,實際上也在鼓勵你加入這個趨勢;一個評分模型告訴機構,某些人更值得投資,另一些人更應被排除,它表面上是在提供信息,實際上已經在發出行動指令。
用語言哲學的話說,這不只是“描述”,而是“施事”。
說出一句話,本身就在做一件事。法官說“判你有罪”,不是在描述一個既成事實,而是在實施判決。神父說“我宣布你們結為夫妻”,不是在匯報信息,而是在創造一種新的社會關系。AI 預測在很多時候正是這樣:它看似只是把概率說出來,實際上是在啟動一種制度性的后果。
于是,預測就不再只是預測,它變成了某種沉默的命令和權力。
三、最可怕的不是誤判,而是世界永遠不知道那是誤判
傳統權力的壓迫,往往還帶著明確的形狀。你知道是誰拒絕了你,是哪個部門做出的決定,是哪一條規定限制了你。它可能依然不公平,但至少有責任主體,也有理論上的申訴對象。
算法權力最可怕的地方在于,它常常沒有明確面孔,卻能產生明確后果。
你被一套招聘系統刷掉,可能只會看到一封自動郵件。你不知道是哪些特征讓系統覺得你“不合適”,也不知道它是不是把你的學校、住址、工作間斷、年齡、語言風格、社交痕跡、甚至某些間接變量,當成了隱性的風險信號。你能做的,往往只是接受結果。一個看似平靜的系統通知背后,其實是一場你從未參與、也無法辯論的審判。
這就產生了一種非常“卡夫卡式”的處境。
你知道自己被決定了,卻不知道依據是什么;你感到命運發生了變化,卻看不見誰在改變它。決定不是基于清晰規則,而是基于一個黑箱里的模式匹配。這個黑箱并不需要向你解釋,因為它常常被視為“專業”“復雜”“商業機密”甚至“技術上難以解釋”。于是,一個影響你人生的重要判斷,既不透明,也不對你負責。
但黑箱還不是最可怕的。最可怕的是,它還會抹掉錯誤證據。
想象一個人因為算法判定“崗位匹配度低”而失去了面試機會。我們永遠不會知道,他如果被錄用,會不會其實是一名極好的員工。那條現實分支已經被切斷了,它不再存在于數據里。
反過來,算法只會看到:這個沒被錄用的人后來并沒有在那家公司表現出色,當然沒有,因為他連機會都沒得到。于是系統的“準確性”就顯得毫發無損。
這就是自我實現的預言像“完美犯罪”的原因:它不會留下明顯的錯誤信號。
你無法證明某次拒絕是錯誤的,因為那條本可展開的人生路徑已經被制度掐滅了。沒有發生的事情,不會形成數據;而恰恰是這些沒有發生、卻本該可能發生的事情,構成了普通人最珍貴的未來。
一個年輕人沒有拿到貸款,我們不知道他本來能不能創業成功;一個孩子因為算法分流被導向較差教育資源,我們不知道他本來能不能在另一條道路上綻放;一個求職者因為評分系統被過濾,我們也不知道他本來會不會在復雜的人際合作和創造性工作中表現出色。
算法淘汰的,不只是某次選擇;它淘汰的往往是那些尚未發生、因而永遠不再有證據的可能性。
這就是算法型不義的深處:它不只傷害人,它還讓傷害難以被看見。
我們今天已經很熟悉“偏見”這個詞。人們會說,算法也有偏見,因為訓練數據有偏見,設計者有偏見,社會歷史本身就充滿偏見。這當然都對。但比“偏見”更深的一層問題是:算法會把偏見固化成命運,然后再用結果證明偏見是對的。
在這種機制里,窮人更容易被判定為風險,風險又讓他們更難獲得資源;邊緣群體更容易被系統識別為“不穩定”,不穩定的判斷又使他們更難進入穩定軌道;那些本就缺乏社會資本的人,最容易在黑箱制度中成為“看起來合理的淘汰者”。
技術于是獲得了一種特別體面的殘酷。它不必大聲喊出歧視,不必在公開場合羞辱誰,不必說“我不喜歡你們這種人”。它只要平靜地顯示:根據模型計算,你不在優先考慮范圍內。
偏見被洗成概率,歧視被翻譯為風險控制,命運的關門聲則被包裝成系統優化的一部分。
![]()
俄狄浦斯王
四、從俄狄浦斯到羅馬禁令:預言會扭曲現實
古希臘悲劇《俄狄浦斯王》講了一個古老而震撼的故事:神諭預言俄狄浦斯將會殺父娶母。為了逃避這個命運,所有人都圍繞預言行動,結果恰恰一步步把他推向了預言本身。
這個故事之所以歷經幾千年仍然令人不安,不只是因為它充滿悲劇色彩,更因為它準確抓住了“預言的悖論”:有些預言并不只是被動地描述未來,它本身就會介入人們的行動,從而改變未來。
哲學家波普爾曾借用這個神話來談社會科學中的“俄狄浦斯效應”:關于未來的預言,可能正是促成或阻礙該事件發生的原因。換句話說,對人的未來進行預測,與對日食進行預測是兩回事。
天體不會聽見你的預言,也不會因此改變軌道;但人會。制度也會。市場會。輿論會。于是,預言進入社會之后,就不再只是觀察,而會成為力量。
歷史上有一個很有意思的現象:古羅馬曾在不同時期禁止預言皇帝之死。理由并不神秘,關于皇帝將死的預言,往往會導致皇帝真的被殺。因為一旦某種說法開始流傳,人們就會圍繞它重新評估風險、忠誠和機會,潛在的野心家、觀望者和陰謀者都會受到影響。于是,預言不再只是預言,而成為了行動的催化劑。
這一點放在今天,依然成立。
一個 AI 如果預測某人“未來財務狀況惡化”,銀行可能拒絕放貸,這反過來又會讓他的財務狀況更容易惡化;一個模型若預測某人“未來患病風險偏高”,保險就可能漲價,財務壓力帶來的焦慮和生活質量下降,反而會增加健康惡化的可能;一個系統若將某人歸類為“潛在不穩定”,機構就可能更少給予資源與信任,這種持續性的收縮又會讓他的生活更不穩定。
所以問題不是“我們能不能預測”,而是:
有些東西即便可以預測,是否也不該被用來裁決?
這是 AI 時代最重要、卻討論得遠遠不夠的問題之一。
現代社會對“能不能算出來”太感興趣了,卻很少追問“算出來之后能不能拿來決定人的命運”。在技術邏輯里,似乎只要模型準確率足夠高,就天然擁有使用正當性。但在人類社會里,準確并不是唯一價值。透明、可爭辯、可申訴、可逆轉、可重新開始,同樣是重要的價值。
一個自由社會的制度設計,不能只圍繞“最優預測”展開。它還必須考慮:這個預測會不會成為自我實現的預言?會不會制造一個被預測者無法逃脫的閉環?會不會讓某些人再也沒有機會證明自己不是模型所說的那類人?
如果答案是會,那么問題就不再是技術能力,而是政治倫理。
五、當人被像天氣一樣預測,人的主體性也開始縮水
預測天氣、預測庫存、預測交通流量、預測機器何時故障,這些都沒有根本問題。世界上有許多對象,本來就適合用統計模型來理解和管理。問題出在,當社會開始用同樣的方式來處理“人”。
當我們像預測天氣那樣預測人時,我們在悄悄接受一種前提:人只是過去模式的延長線,是一組可被拆解為特征、變量和概率的對象。你的昨天足以決定你的明天;你的行為軌跡、消費習慣、社交網絡、學習記錄、健康檔案和情緒波動,最終都可以被轉譯成一個更高或更低的風險值。
這種處理方式之所以危險,不只是因為它可能不公平,更因為它在改變我們對于“人是什么”的理解。
人當然會受過去影響,但人并不只是過去的總和。人之所以是人,恰恰在于他有能力偏離自己的過去,有能力在某個時刻突然改變,有能力出人意料,有能力悔改、成長、反抗、重新開始。
一個年輕人出身普通,不意味著他就會永遠困在原地;一個曾經失敗的人,并不注定不會在下一次選擇中完成逆轉;一個看起來“低匹配度”的候選人,可能恰恰會在真實復雜的組織中帶來意外價值。
如果一個社會越來越相信模型對人的描述,超過相信人改變自己的能力,那么這個社會失去的,就不只是公平,還有一種更深層的東西:人的開放性。
現代治理越來越偏愛把人拆解為“畫像”。
這當然方便。畫像讓人更容易被分類、被管理、被定價、被分層。平臺可以據此更精準地推送內容,企業可以據此更高效地篩選候選人,金融機構可以據此更細致地控制風險,政府機構也可以據此更精密地分配資源和警惕危險。
問題在于,畫像并不會停留在“認識你”這一步,它遲早會滑向“定義你”。當一個人被定義為一組穩定的特征,他作為主體的那部分不確定性,那部分“我還可以成為別的人”的權利,就開始被削弱。
這就是為什么,AI問題最終不僅僅是技術問題,而是一個關于自由的問題。
自由不只是“想做什么就做什么”。自由還意味著,你不應被過去的數據提前算完;你不應因為統計學上與某類人相似,就被剝奪證明自己不同的機會;你不應在真正行動之前,就被系統預審了命運。
人的尊嚴,部分就在這里。不是因為每個人都無比高貴,而是因為每個人都不應該被簡化為一個完全可計算、可提前判定的對象。一個社會若只追求預測準確率,遲早會把人變成管理對象;而一個社會若仍然尊重人的主體性,就必須為不可預測性保留空間。
不可預測,并不只是效率的敵人。它也是自由的條件。
![]()
六、預測市場的火熱,暴露了一個時代的精神結構
這幾年,預測市場重新成為一個熱門話題。無論是與加密貨幣結合的去中心化預測平臺,還是圍繞選舉、政策、經濟數據、科技事件展開的各種投機和投資機制,都體現出一種越來越鮮明的傾向:
人們想把未來變成一個可交易、可定價、可押注的對象。
從表面看,這似乎只是金融創新或者互聯網游戲化的一部分。它給人一種很現代的感覺:眾包信息、分散判斷、市場定價,把大家對未來的信念壓縮成一個概率。誰判斷得準,誰就賺錢;誰看錯了,誰就虧損。
這種機制當然有其信息聚合意義,也并非一無是處。但它之所以在今天格外有吸引力,不只是因為它賺錢、刺激、聰明,而是因為它與 AI 所代表的時代精神高度同構。
這種時代精神可以概括為一句話:
未來不是等待發生的東西,而是可以被提前計算、提前下注、提前配置的東西。
AI 試圖通過數據預測未來。預測市場試圖通過價格發現未來。兩者的方法不同,但背后的沖動很接近:都在努力把不確定性轉化為某種可操作的概率結構。人們不再滿足于讓未來到來,他們想提前接近它、占有它、管理它,最好還能從中套利。
這看起來非常現代,也非常理性。但其中潛藏著一種危險:當“預測未來”成為越來越強的社會沖動,社會就會越來越傾向于以概率而不是以判斷來組織行動,以風險控制而不是以價值討論來處理問題。
人們更關心“什么最可能發生”,而不是“什么是應該發生的”;更關心“如何根據模型配置資源”,而不是“怎樣保留人的開放性和意外性”。
于是,未來逐漸被資本、數據和算力提前占領。誰擁有更多數據、模型、資金和計算資源,誰就更有能力在別人真正進入未來之前,先為未來定價。普通人則往往只能在被定價之后,接受一個已經對自己不利的現實。
從這個角度看,預測市場和 AI 的結合并不只是技術融合,更像是一種精神聯盟。它們共同推動一種觀念:世界的核心不再是行動,而是預判;不再是實踐,而是定價;不再是給人機會,而是先估算一個人值不值得給機會。
古代人害怕未來,是因為未來不可知。現代人迷戀未來,也是因為未來不可知。只是今天,我們不再向神明獻祭,而是向數據獻祭;我們不再等待神諭降臨,而是試圖用模型、市場和算力,把未來提前兌換成一種可管理的風險。
問題是,當風險管理越過邊界,滑向命運管理,普通人還能剩下多少“重新開始”的空間?
七、真正值得警惕的,不是AI 更聰明,而是人們越來越屈從它的判決
關于 AI,人們最常見的兩種討論,一種是樂觀主義的:它提高效率、降低成本、創造便利、釋放生產力;另一種是災難主義的:它可能失控、取代人類、制造大規模失業,甚至威脅文明本身。
這兩種討論都重要。但對于眼下的大多數普通人來說,最迫近、也最容易被忽視的問題,也許不是 AI 會不會毀滅人類,而是它已經開始以一種安靜的方式,參與決定普通人的前途。
它不會像科幻電影那樣沖出屏幕統治世界。它會以“系統建議”、“信用評估”、“綜合畫像”、“風險識別”、“精細化運營”、“個性化推薦”的形式,一點點進入生活。它不會高喊命令,而會提供越來越難以拒絕的“最優判斷”。
久而久之,機構學會依賴它,人們也學會服從它。最后,我們會發現,許多決定命運的關鍵環節,都已經提前外包給了一套不會承擔道德責任的技術體系。
這時候,最危險的事情并不是模型本身,而是社會對模型的信仰。不是 AI 非要成為神,而是我們越來越愿意把它當神。
我們喜歡“客觀”的東西,因為它能替我們減輕判斷的負擔;我們迷戀“數據驅動”,因為它讓復雜的責任看起來變得簡單;我們偏愛概率,是因為概率似乎比價值爭論更干凈、更高效。
可一旦這種傾向走得太遠,我們就會忘記一件事:在人類社會里,很多最重要的決定從來不只是事實判斷,它們同時也是價值判斷。
要不要給一個人第二次機會?要不要容忍風險來換取更大的公平?要不要在效率和尊嚴之間留出余地?要不要讓一個背景不占優勢的人,也能得到證明自己的機會?這些問題,沒有任何模型可以替我們作出最后決定。因為它們涉及的不是“世界是什么”,而是“我們希望世界成為什么樣”。
當 AI 把充滿價值沖突的決定偽裝成中性的事實,它就會讓真正該被公開討論的問題,悄悄退出討論。
于是,命運的分配不再顯得像政治選擇,而只像技術結果;不平等不再顯得像制度安排,而只像算法算出來的現實;那些本可爭辯的事情,也在“模型如此”的一句話里失去了爭辯的資格。
這才是現代神諭最可怕的地方。它不是用神秘壓制你,而是用理性說服你;不是讓你因恐懼而服從,而是讓你因為相信它“更懂”而服從。
結語:不要被算法提前算完
當然,沒有人會主張一個現代社會完全放棄預測。我們需要統計,需要模型,需要風險分析,需要技術來幫助人類理解復雜世界。
問題從來不在于“要不要預測”,而在于:預測能否越過邊界,直接成為決定命運的依據。
一旦預測開始替代判斷,開始壓過申訴,開始剝奪一個人偏離模型的機會,它就不再只是輔助工具,而成了一種需要被約束的權力。
尤其是在招聘、信貸、保險、教育、醫療、司法、執法和公共服務這些場景里,社會應當警惕的,不只是模型誤差和數據偏見,還包括一個更根本的問題:人是否仍然擁有解釋自己、修正自己、重啟人生的空間。
一個人不該因為過去像某類人,就被提前判定未來也只能如此。一個社會也不能只為了提高預測準確率,就犧牲人作為主體的開放性。
自由社會的前提,不是它能把每個人都計算得更精確。
恰恰相反,自由社會之所以自由,是因為它承認:人的未來不能被過去的數據獨自決定;制度不能以“高概率”為名,取消一個人證明自己不同的機會;技術可以幫助我們理解現實,但不能代替我們承擔關于公平、尊嚴和希望的判斷。
說到底,我們真正需要捍衛的,也許不只是隱私權,不只是知情權,甚至不只是反歧視權。我們還需要捍衛一種更容易被忽視、卻同樣重要的權利:
不被提前算完的權利。
因為一個人最珍貴的部分,從來不只是他已經是什么樣的人,更在于他始終可能成為別的人。
而只要這個可能性還在,命運就不該被任何神諭提前判決,哪怕是披著算法外衣的神諭。【懂】
如果你想了解更多類似本文的優質內容,經叔最近做了一個網站:https://budongjing.com
人肉篩選挖掘的硬核優質內容及深度原創,重點關注科技、文化、財富、權力四大要素以及它們之間的互動與影響。網站定價1999元/年,目前內測優惠價1299元/年,感興趣的讀者可以加經叔微信訂閱。
另外,歡迎加入經叔的知識星球。星球重點關注AI技術與商業前沿、一人公司與個人IP的底層邏輯和頂層設計,文化敘事與財富認知。
我是不懂經的經叔,國內最早翻譯介紹了納瓦爾的《如何不靠運氣獲得財務自由》,以及影響了納瓦爾、中本聰、馬斯克等大佬的《主權個人》。
不懂經知識星球,眾多百萬粉絲大V、千萬及億萬富翁訂閱。專注分享一人企業、一人創投主題,關鍵詞:AI、IP、創投、科技及商業前沿的高杠桿內容。
![]()
愈懂愈自由
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.