![]()
內(nèi)容來源:筆記俠(Notesman)。
責(zé)編| 賈寧排版| 沐言
第 9568篇深度好文:3750字 | 15分鐘閱讀
思維方式
筆記君說:
黃仁勛說:現(xiàn)在,智能正在變成一種廉價商品。
但出現(xiàn)了一個新問題:當(dāng)答案來得太容易,人的判斷力反而在悄悄退化。
今天這篇內(nèi)容,不僅會拆解清楚判斷力的本質(zhì)、它為什么會流失,更能讓你直接拿走3個經(jīng)過實(shí)戰(zhàn)驗(yàn)證、可直接照搬落地的方法,幫你在AI時代牢牢守住自己的判斷力。
一、AI最大的問題,不是“不夠聰明”
2023年6月,美國紐約聯(lián)邦法院出了一件讓人哭笑不得的事。
律師史蒂文·施瓦茨在法庭文件里引用了六個判例,每一個都被ChatGPT標(biāo)注為“完全真實(shí) ” 。
結(jié)果呢?法官一查,這些案例全是AI編的,根本不存在。施瓦茨的律所被罰了5000美元。
這只是開始。同年12月,特朗普的前私人律師邁克爾·科恩也承認(rèn),他提交給法官的法律文件里,引用了谷歌的AI助手Bard生成的假案例。
科恩事后說,他以為Bard只是 “ 一個更強(qiáng)的搜索引擎 ” 。
你看,出事的不是新手,是執(zhí)業(yè)多年的資深律師。他們不是不懂法律、不缺經(jīng)驗(yàn)、不沒有判斷力——但照樣被AI騙了。
這說明什么?
AI最大的問題,不是它不夠聰明,而是它太會“編”了。
現(xiàn)在的大語言模型在生成內(nèi)容時,有一個致命特性:它們不是在“回憶”事實(shí),而是在預(yù)測“最可能出現(xiàn)的文字”。
它一旦預(yù)測錯了,輸出的就是一段聽起來非常正確、邏輯自洽、但完全虛構(gòu)的內(nèi)容。
學(xué)術(shù)界給這種現(xiàn)象起了個名字:AI幻覺。
幻覺不挑人,一個初出茅廬的法學(xué)生可能被騙,一個身經(jīng)百戰(zhàn)的律師照樣被騙。
在AI面前,專業(yè)人士和普通人的起點(diǎn)是一樣的,都是面對一堆“看起來很真”的信息。
這才是AI時代最反直覺的地方:知識變得前所未有的廉價,但真知識反而前所未有地稀缺。
1945年,哈耶克在《知識在社會中的利用》中寫道:真正重要的知識,往往散落在具體的人、具體的經(jīng)歷里,沒法被完整寫下來,更沒法集中存放。
他當(dāng)時是在批評中央計劃經(jīng)濟(jì)的思路,那些坐在辦公室里的人,以為自己掌握了足夠的信息,可以替整個社會做決定。但其實(shí)是脫離了真實(shí)的市場環(huán)境,制定了一堆錯誤政策。他把這稱為“知識的傲慢”。
但我們要說明一下:那些AI編造的判例、偽造的數(shù)據(jù)、胡編的學(xué)術(shù)引用,它們不是知識,是假信息。
所以,我們現(xiàn)在的問題不是知識“分散”了,而是可信知識的溯源能力變得前所未有地稀缺。
當(dāng)你用AI的時候,看到一段論證嚴(yán)密、引用豐富的分析,你的第一反應(yīng)是什么?信,還是不信?
如果你覺得“AI不會出錯”,然后照單全收,那你和上面那兩位律師一樣。
現(xiàn)在,我們溯源核查的能力比知識本身更稀缺。而這種能力的喪失,正在悄悄侵蝕我們最核心的判斷力。
二、判斷力,是什么?
AI能給你答案,但不會告訴你這個答案從哪來的,靠不靠譜。
判斷力不是“做決定的能力”,而是在信息不完整的情況下做出選擇,并為這個選擇承擔(dān)后果的能力。它包括三個層次:
第一層,是分辨。
在假信息泛濫的時代,分辨的首要任務(wù)是溯源和核查:
這個信息從哪來的?有沒有原始出處?能不能交叉驗(yàn)證?一個東西"看起來像知識",不等于它就是知識。
這個信息該不該信?這個數(shù)據(jù)靠不靠譜?
這個“專家”是在陳述事實(shí)還是在推銷觀點(diǎn)?
分辨需要你腦子里有參照系,知道什么是正常、什么是異常,什么是常識、什么是忽悠。這個參照系和核查意識,來自長期的經(jīng)驗(yàn)積累,也來自對自己認(rèn)知邊界的清醒認(rèn)知。
第二層,是關(guān)聯(lián)。
同樣一條數(shù)據(jù),對A公司是機(jī)會,對B公司可能是坑。為什么?
因?yàn)锳和B的資源不同、目標(biāo)不同、歷史包袱不同。別人的成功經(jīng)驗(yàn)放到你的公司,可能就是毒藥。
這種“具體情境”的判斷,沒法從書本上學(xué),也沒法從AI那里直接拿到,只能在具體的事情里反復(fù)打磨。
第三層,是承擔(dān)。
判斷的最后一步,是你得為結(jié)果負(fù)責(zé)。
AI給你一個建議,你可以采納,但你沒法讓AI替你承擔(dān)后果。產(chǎn)品賣不出去,AI不會扣工資;戰(zhàn)略決策失誤,AI不會下課。
誰承擔(dān)后果,誰就有判斷力;誰把判斷權(quán)交出去,誰就在推卸責(zé)任。
這三層加在一起,才是完整的判斷力——在具體情境里做選擇并承擔(dān)責(zé)任的能力。
三、保護(hù)判斷力的3個方法
1.判斷力是慢慢溜走的
其實(shí),判斷力的流失,不是某一天忽然發(fā)生的,它有個漸進(jìn)過程。
不少人一開始只是讓AI幫我想想,慢慢變成讓AI替我想,最后變成我不會想了。
不光是個人,判斷力的流失,對組織也是一個巨大風(fēng)險。
如果遇到問題,團(tuán)隊(duì)成員都去問同一個AI,AI給了一個看起來合理的方案,大家都接受。
這看起來不錯,是吧?
但,沒有人在問 “ AI為什么給這個方案? ” “這個方案在我的具體情況下適用嗎?”
結(jié)果是:企業(yè)里的集體智慧正在被替換成AI的單一邏輯。
團(tuán)隊(duì)都在引用同一個AI的結(jié)論,你看不到多元的觀點(diǎn),聽不到刺耳的聲音,得到的都是安全穩(wěn)妥的建議。這不是AI的問題,是使用方式的問題。
短期看,效率確實(shí)提高了;長期看,組織的判斷多樣性降低了。
一個組織如果判斷趨同,面對復(fù)雜局面時就很脆弱,因?yàn)橐呀?jīng)沒有人能跳出這個同質(zhì)的思維框架。
2.怎么做,才能保護(hù)好自己的判斷力?
其實(shí)核心邏輯特別簡單:讓AI充分輔助你,但絕對不能讓它替你走完完整的判斷過程。
下面給大家分享3個實(shí)打?qū)嵉摹⒁呀?jīng)被國內(nèi)國外大廠跑通落地的方法,每一個都有一線的實(shí)踐,照著就能用。
第一個方法:先自己來,再問AI。
遇到任何問題,先逼著自己拿出個“初稿”。
哪怕這個初稿很糙、有漏洞都沒關(guān)系,先把你的想法、直覺、拿不準(zhǔn)的地方,明明白白寫出來。等你自己先有了思考的起點(diǎn),再去問AI,讓它給你挑毛病、找漏洞、補(bǔ)你沒考慮到的角度。
這是讓你自己的思考“先跑一遍”。AI能幫你打磨想法,但絕對不能讓它替你生成思考的起點(diǎn)。
這套方法已經(jīng)在有贊的產(chǎn)品研發(fā)、功能立項(xiàng)里做成了硬性規(guī)矩。
很多產(chǎn)品經(jīng)理最容易犯的錯,就是老板問一句“咱們要不要上線這個新功能”,轉(zhuǎn)頭就去問AI“這個功能要不要上”,AI給一堆分析,自己都不細(xì)琢磨,就直接轉(zhuǎn)發(fā)給老板交差。
有贊的產(chǎn)品經(jīng)理,是怎么做的?
先不碰AI,先在文檔里老老實(shí)實(shí)寫清楚:
我自己的判斷是什么?我覺得該上還是不該上?核心依據(jù)是什么?是用戶真實(shí)需求?還是能帶來商業(yè)化價值?我最大的顧慮是什么?最拿不準(zhǔn)的地方在哪?
甚至連上線之后的風(fēng)險預(yù)案,都要先自己寫個大概。等把這些全寫明白了,自己的判斷完完整整擺出來了,才能去用AI。
第二個方法:讓AI參與的痕跡被看到。
要求團(tuán)隊(duì)伙伴在提交內(nèi)容時,標(biāo)注哪些是AI生成的,哪些是自己改的,修改的理由是什么。
這個過程逼著我們回到人判斷的位置:你得知道自己在信什么、不信什么,你得為自己的判斷負(fù)責(zé),而不是把責(zé)任推給AI寫的。
當(dāng)你要寫“我為什么沒有采納AI的建議 ” 時,你就不得不形成自己的判斷,這本身就是一種思維鍛煉。
藍(lán)色光標(biāo)要求所有團(tuán)隊(duì)提交的營銷素材、策劃方案,只要用了AI,就必須在文檔里用批注標(biāo)得明明白白:
①哪些內(nèi)容是AI原生生成的;
②哪些地方是人工修改的,每一處修改都要寫清楚核心理由;
③針對AI給的建議,你沒采納的,必須寫明白“我為什么不用AI的這個版本”,是不符合客戶的品牌調(diào)性?還是沒踩中用戶的核心需求?還是創(chuàng)意方向不對?
這就逼著創(chuàng)意人員,從“AI內(nèi)容的搬運(yùn)工”,變回了“創(chuàng)意判斷的決策者”。
你要寫清楚修改理由,就必須先把AI的內(nèi)容看明白,再結(jié)合客戶的需求、品牌的調(diào)性,形成自己的判斷,不然你根本寫不出來為什么改、為什么不采納。
第三個方法:定期做判斷回顧。
每隔一段時間,回顧一下你最近用AI做的決定:
哪些是你采納了結(jié)果好的?
哪些是結(jié)果不好的?
AI給的方向,和你當(dāng)時的直覺,哪個更準(zhǔn)?
這個回顧不是為了評判AI的表現(xiàn),而是為了訓(xùn)練你自己的判斷力。你要看到自己的判斷在哪里被修正了,在哪里被證實(shí)了,這才能積累出真正的判斷經(jīng)驗(yàn)。
人保壽險以季度為周期,把所有AI輔助審核的可疑交易分析報告,全拿出來復(fù)盤。
復(fù)盤的核心,是盯著三個問題:
①當(dāng)時AI給了什么樣的風(fēng)險評級建議,負(fù)責(zé)的風(fēng)控專員自己的人工判斷是什么,做了哪些修改;
②最終這個案件的核查結(jié)果是什么,到底有沒有風(fēng)險;
③哪些風(fēng)險特征,是AI識別不出來,必須靠人工經(jīng)驗(yàn)判斷的?人工判斷的核心依據(jù),能不能沉淀下來,變成可復(fù)用的標(biāo)準(zhǔn)?
就這樣通過一次次復(fù)盤,不斷沉淀、不斷完善,形成了“AI提效+人工兜底”的良性循環(huán)。
結(jié)語
AI時代,信息變得極其便宜。
但你更需要有分辨真假、查證事實(shí)的能力。
因?yàn)椋挥心隳転槟愕倪x擇承擔(dān)后果。
在AI時代,這可能是一個人最不可替代的地方。
我們正身處AI狂飆、全球格局重構(gòu)的大變革時代,但絕大多數(shù)人的認(rèn)知框架、組織形態(tài)、行動邏輯,還牢牢鎖死在前全球化、前AI時代的舊范式里。
舊的創(chuàng)業(yè)法則撐不起新的時代,過時的認(rèn)知系統(tǒng)換不來未來的增長。
筆記俠 PPE(哲學(xué)、政治學(xué)與經(jīng)濟(jì)學(xué))課程,專為第五代企業(yè)家打造AI時代的完整認(rèn)知操作系統(tǒng),帶你讀懂AI科技經(jīng)濟(jì)與智能商業(yè)、AI哲學(xué)與文明演進(jìn),打通全球貿(mào)易、經(jīng)濟(jì)政策、國際政治與全球治理的底層邏輯。
駕馭技術(shù)、洞察世界、扎根中國、修煉心力,在時代變革中,找到屬于你的決策底牌。
穿越變革的舊世界,找到時代的新大陸,從【PPE:未來3年和AI時代的決策底牌】開始。
筆記俠PPE課程26級招生即將截止,5月16日開課,現(xiàn)僅剩最后7個名額。
![]()
參考資料:
《每個人,都是自己的上下文》,印象筆記。
好文閱讀推薦:
“子彈筆記”是筆記俠的矩陣公眾號,聚焦職場效率追求、人際關(guān)系與高潛成長者,幫你3分鐘吃透核心觀點(diǎn)和方法論。歡迎關(guān)注~
分享、點(diǎn)贊、在看,3連3連!![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.