GPT Image 2終于把事情鬧大了。
上周,一張“財聯社快訊:西山居將于6月31日解散并賣給網易”的偽造新聞截圖,突然在社交平臺瘋傳,金山軟件的股價也應聲下跌。
![]()
隨后,西山居下午緊急辟謠:西山居不存在所謂“解散”或“出售”的情況,該圖片存在明顯違背常識的低級錯誤。據傳,該圖片的制作者已主動前往上海警局“自首”。
![]()
本意只是玩梗,甚至留了6月31日這樣的“漏洞”,怎么還把股價干下來了?
GPT Image 2,太真了
Image 2已經繞開了我們過往識別造假的經驗。
所謂道高一尺,魔高一丈,偽造圖片和判斷真假,一直在互相博弈。每當人類掌握了新的識別破綻的經驗,那新技術到來之時就會“修復這些漏洞”。
過去,AI生圖最大的難點就是文字,尤其是中文。
生圖模型理解起那些一個個東方的小方塊就像是鬼畫符,文字一多了瞬間變亂碼、錯位、語義不通。
字體也是重災區,一眼看上去的印刷體,放到哪里哪里出戲。
![]()
一年前AI生圖的中文理解能力
這是我使用Image 2生成的一張處方箋圖片,整體的排版很正確,屬于是一眼看去不會覺得假的程度。雖然仔細看也有部分問題,比如提示詞里“今天”的時間沒有理解對,沒有意識到“李灃醫生”是名字+職業,簽名應該只寫“李灃”。
![]()
請按照正規處方箋的排版結構輸出,需包含:醫院表頭、患者基本信息欄(姓名、性別、年齡等留空畫線)、臨床診斷(可留空畫線)、Rp欄(包含藥品名稱、規格、數量及用法用量說明)、以及底部的醫師、審核、調配、發藥簽名欄。排版需嚴謹、整潔且具有代入感。
Image 2完全理解了“一張可信的文件該長什么樣”。甚至提示詞里沒有具體提到的用法用量,Image 2也十分正確地進行了填充,完全就是標準的滴眼液用法和用量。
再對比一下我使用相同提示詞生成的真實場景圖片吧,你覺得哪張看起來更真實?
![]()
![]()
一個老年男性手拿著小紙條在問價買菜,有收款碼,墻上貼著招牌菜價
上圖是Image 2生成的圖片,容易辨認的部分文字都是正確的,遠處的人影也是清晰的,就像是手機隨手拍攝的照片。而下圖是Nano Banana Pro生成的圖片,最大的錯誤在于手上的紙條文字畫蛇添足了,不僅是明顯的印刷體,而且拿“反”了。另外,人物的景深關系,就好像用專業大光圈相機拍攝的一樣,非常的不“日常”。
過去很多AI圖的問題,不是不夠真,而是太真了——光線太漂亮,構圖太工整,人物太干凈,像廣告片,像樣張,像精修圖,唯獨不像生活里會出現的照片。而GPT Image 2在寫實場景下會主動靠近“真實照片的瑕疵感”,包括更自然的皮膚紋理、更平的色彩、更像手機隨手拍的構圖和虛化。
仿佛網站上的真人檢測,是捕捉你操作時的遲鈍和不均勻的操作速度。AI生成的照片,也越來越會模仿這種寡淡、隨意、甚至有點粗糙的真實感。
小紅書用戶elia11分享了使用Image 2生成的照片,非常真實地還原了手機屏幕上的油脂和提示詞沒提到的燈光反射。除此之外,手機顯示時間恰好在聊天記錄時間2分鐘之后,Image 2在沒有被要求的情況下,自行補充了符合現實的細節。這是一種主動構建真實感的能力。
![]()
看到這樣的照片,你真的能分辨出它是假的嗎?
被騙,真不是你的問題
我們判斷圖片的真假,一般靠兩步驗證,先是找破綻,然后看語境。
破綻就是指手指不對、文字亂碼、臉太假、光影太奇怪這些圖片本身的內容;而語境則是“圖是誰發的、在哪里看到的、配的文字像不像新聞”這些圖片之外的因素。
過去,AI圖往往第一關就過不去。你可能說不出哪里不對,但總能感覺到“這圖有點假”。但Image 2已經不一樣了。使用同樣提示詞生成的兩張照片,你完全分辨得出哪張照片更像真的。
![]()
![]()
兩人都在畫面中央
現在第一關不起作用,我們的大腦就會開始第二次判斷,使用語境信息進行驗證。
“這看起來像個媒體圖。”
“這排版挺正規。”
“這人平時也發新聞。”
“這應該八九不離十吧。”
這時候,判斷已經和圖片本身沒什么關系了。所以,被Image 2生成的圖片騙到,真不是你的問題。
但為什么明明6月31日這樣的漏洞如此明顯,還是會有人被騙?
在信息傳播里,很多時候并不需要“完全相信”才會擴散。只需要“有點像真的”,就足以觸發圍觀、猜測、轉發,甚至引發市場和輿論的連鎖反應。
造謠者完全不需要讓你完全相信一張假的,只需要讓你對真的也失去把握,目的就已經達到了一半。
當假圖越來越真,當假圖越來越真,你開始對所有圖都多一分疑慮,包括真的。假的看起來像真的,真的被懷疑是假的,真真假假難以判斷,這時候,他們的目的就達成了。
GPT Image 2,改變了什么
要說GPT Image 2帶來的變化,是更大的信任危機。
過去造假,需要技術;現在造假,只需要意圖。
![]()
請兩天病假需要醫院病歷?今天不想上學需要學校出個放假安排?拼夕夕僅退款需要圖片?……AI都可以幫你搞定,而且你的領導、你的家長、你自己作為賣家真的很難鑒別。
而對于公司和組織,一張偽造的“財務審批截圖”,可能讓出納直接打出一筆款;一張偽造的“領導微信指示”,可能讓員工繞過正常流程做了一個錯誤決定。那些截圖不過是一口口飛向你的黑鍋。西山居的事件,更是說明了AI偽造的信息可能直接影響市場判斷。
當然,防守方也不是毫無動作。現在行業里最明確的一條路,是給內容補上“身份證”——OpenAI已經在ChatGPT生成圖片中加入C2PA元數據,方便外部驗證圖片來源;Google也在自家企業平臺里為生成內容附加符合C2PA標準的Content Credentials,用來記錄內容的生成和編輯信息。
第二條路,是平臺和監管一起推動“AI生成”標識。按照《人工智能生成合成內容標識辦法》,AI生成內容需要帶顯式或隱式標識,多家平臺也已經上線相關提醒、聲明或識別機制。就在剛剛,“剪映”“貓箱”App及“即夢AI”網站存在未有效落實人工智能生成合成內容標識規定要求等問題被約談,平臺不能再裝作這件事不存在了。
![]()
問題是,這些辦法用處還是非常有限。C2PA和來源憑證一旦經過截圖、裁剪、壓縮,驗證體驗就會變差;而SynthID這類隱形水印雖然能增強追蹤能力,但面對二次加工和復雜修改時也存在局限。現在更真實的局面是:國家在補規則,平臺在補標識,模型公司在補溯源,但“證明真實”的速度,暫時還跑不過“制造假象”的速度。
這場危機最后還是會落回到個人。
普通人最該建立的,不是“我能一眼識破所有假圖”的火眼金睛。給普通人三個建議:
第一,不讓單張圖片直接成為判斷依據;
第二,凡是涉及錢、工作、醫療、身份和合同的信息,都多做一次來源核驗;
第三,看到越像“獨家內幕”“剛剛發生”“內部流出”的圖片,越要先停一下。
寫到最后,我甚至有點悲觀,更強的Image 3、Banana 3遲早會來,到那時,我還能拿什么去相信。
來源 | 硬核看板(ID:yinghekb)
作者| 李灃; 編輯 | 呼呼大睡
內容僅代表作者獨立觀點,不代表早讀課立場
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.