「我們從未被告知會看到這些。」一位肯尼亞數(shù)據(jù)標(biāo)注員的話,揭開了智能眼鏡最隱秘的角落。
Meta與雷朋聯(lián)名的智能眼鏡正陷入一場前所未有的信任危機。超過一千名非洲數(shù)據(jù)工人突然失業(yè),而他們此前的工作內(nèi)容——審核用戶眼鏡拍攝的私密畫面——正在引發(fā)多國監(jiān)管調(diào)查。
![]()
被終止的合同與被沉默的工人
肯尼亞AI訓(xùn)練公司Sama與Meta的合作關(guān)系在兩個月內(nèi)急轉(zhuǎn)直下。今年早些時候,Sama的工人向BBC披露,他們在為Meta訓(xùn)練AI時,反復(fù)接觸到通過智能眼鏡拍攝的極端私密內(nèi)容。
這些工人的正式頭銜是「數(shù)據(jù)標(biāo)注員」。他們的日常工作包括:為視頻內(nèi)容手動打標(biāo)簽,教Meta的AI識別圖像;同時審核Meta AI對話的轉(zhuǎn)錄文本,確保聊天機器人給出準(zhǔn)確回復(fù)。
但他們聲稱,實際工作中出現(xiàn)了合同未涵蓋的內(nèi)容——人們在性行為中被拍攝的畫面、使用廁所的場景、以及一位妻子在臥室脫衣服的畫面。這些視頻均來自Meta智能眼鏡,且拍攝者似乎并未告知被攝對象。
Meta眼鏡確實配備了小型指示燈,攝像頭激活時會亮起。但這一設(shè)計顯然未能阻止濫用。Meta事后承認(rèn),簽約工人偶爾會審核用戶分享給Meta AI的內(nèi)容,并將其框定為「改善用戶體驗的標(biāo)準(zhǔn)做法」。
工人發(fā)聲不到兩個月,Meta終止了與Sama的協(xié)議。1,108人失去工作。
Sama方面堅稱,公司完全符合Meta設(shè)定的所有標(biāo)準(zhǔn),從未收到任何負(fù)面反饋。Meta的回應(yīng)則截然相反:Sama未能達(dá)到其預(yù)期。
肯尼亞一個工人組織提出了第三種解釋——真實動機是封住公開談?wù)摗溉祟悓徍酥悄苎坨R畫面」的員工之口。
監(jiān)管介入與歷史重演
英國信息專員辦公室已向Meta致函,稱情況「令人擔(dān)憂」。肯尼亞數(shù)據(jù)保護機構(gòu)則啟動了正式調(diào)查。
這并非Sama與Meta的首次沖突。雙方此前在Facebook內(nèi)容審核合同上的合作,同樣以爭議告終。前員工當(dāng)時描述了接觸創(chuàng)傷性內(nèi)容后的精神傷害,Sama事后表示「后悔接下這份工作」。
歷史正在押韻。監(jiān)管者圍攏,法律訴訟進行,Meta被迫解釋其決策的壓力持續(xù)累積。
實時人臉識別:下一個風(fēng)暴眼
智能眼鏡的爭議正在向更深層蔓延。報道稱,Meta眼鏡可能即將支持實時人物識別功能。這一技術(shù)前景加劇了隱私與公民權(quán)利層面的焦慮——在日常公共空間,「始終開啟」的識別可能在沒有明確同意的情況下發(fā)生。
公民權(quán)利組織正對此強力抵制。他們的核心論點:公共空間中的被動識別,消解了「選擇退出」的可能性。
市場已經(jīng)嗅到這種不安。Godsend等應(yīng)用應(yīng)運而生,專門提醒用戶附近是否有智能眼鏡正在秘密錄制。這類工具的存在本身,就是對當(dāng)前技術(shù)信任赤字的無聲注腳。
硬件創(chuàng)新的倫理負(fù)債
把鏡頭放回產(chǎn)品本身。Meta與雷朋的合作款眼鏡,在工業(yè)設(shè)計層面是成功的——輕量化、時尚外觀、第一人稱視角拍攝。但這些工程優(yōu)勢,恰恰構(gòu)成了倫理風(fēng)險的載體。
指示燈的設(shè)計是一個典型案例。技術(shù)團隊顯然考慮過「告知被攝者」的合規(guī)需求,但小型LED在日光下幾乎不可見,且用戶完全可以選擇物理遮擋。這種「形式上合規(guī)、實質(zhì)上失效」的安全機制,在多個司法管轄區(qū)正面臨重新審視。
更深層的問題在于數(shù)據(jù)流向的透明度。普通用戶可能理解「AI需要訓(xùn)練數(shù)據(jù)」,但極少有人意識到,自己的眼鏡畫面會進入肯尼亞某辦公樓的人工審核隊列。地理外包不僅壓縮了成本,也稀釋了責(zé)任鏈條——當(dāng)出現(xiàn)問題時,Meta可以指向承包商,承包商則聲稱遵循了甲方標(biāo)準(zhǔn)。
Sama工人的遭遇揭示了這個鏈條的末端:全球南方國家的年輕勞動者,以最低時薪承擔(dān)著技術(shù)系統(tǒng)的「情感勞動」——過濾暴力、色情、隱私侵犯內(nèi)容,同時承受心理創(chuàng)傷。這不是Meta獨有的商業(yè)模式,但Meta的規(guī)模和影響力使其成為最顯眼的靶標(biāo)。
識別技術(shù)的臨界點
實時人臉識別將把整個議題推向新維度。目前的爭議圍繞「錄制」,下一步將是「識別」。
技術(shù)路徑已經(jīng)清晰:眼鏡攝像頭捕捉畫面,云端或端側(cè)AI提取面部特征,與數(shù)據(jù)庫比對,返回身份信息。延遲可以壓縮到毫秒級,用戶體驗將極度流暢。但流暢的代價是,任何佩戴者都變成了潛在的監(jiān)控節(jié)點。
公民權(quán)利組織的擔(dān)憂有具體指向。在抗議現(xiàn)場、診所門外、宗教場所周邊,實時識別可以無聲地建立「誰在場」的記錄。這種記錄的權(quán)力不對稱——拍攝者匿名,被攝者暴露——正在挑戰(zhàn)現(xiàn)有法律框架的邊界。
Godsend類應(yīng)用的興起,說明市場正在自發(fā)構(gòu)建防御機制。但這是一種悲哀的技術(shù)對抗:一方用AI識別眼鏡,另一方用AI反識別。隱私保護變成了軍備競賽,而普通用戶被迫成為參與者。
判斷:什么正在改變
Meta眼鏡爭議的核心,不是單一產(chǎn)品缺陷,而是「第一人稱計算」這一品類與生俱來的張力。當(dāng)攝像頭離開口袋、上升到面部高度,拍攝的門檻急劇降低,而被攝者的感知能力沒有同步提升。
Sama事件的重要性在于,它把「AI訓(xùn)練」這一抽象流程具象化為1,108個失業(yè)的肯尼亞工人。它證明:即使是最前沿的自動化系統(tǒng),仍然依賴廉價人力進行臟活累活;而當(dāng)這些人力試圖發(fā)聲時,合同可以被迅速切斷。
監(jiān)管機構(gòu)的介入標(biāo)志著政策層面的覺醒。英國和肯尼亞的動作只是開始,歐盟《人工智能法案》對實時生物識別已有嚴(yán)格限制,美國多個州也在推進相關(guān)立法。硬件廠商將不得不把合規(guī)成本納入產(chǎn)品定義,而不僅僅是事后公關(guān)。
對于科技從業(yè)者,這一案例提供了三個可操作的觀察點:第一,指示燈等「軟性告知」機制在高壓場景下可能失效,需要探索更硬核的技術(shù)約束;第二,外包審核的模式正在積累系統(tǒng)性風(fēng)險,透明度報告需要覆蓋供應(yīng)鏈末端;第三,實時識別功能的上線時機,將直接決定品牌在隱私領(lǐng)域的長期信譽。
智能眼鏡不會消失。但它們的進化路徑,正從「能做什么」轉(zhuǎn)向「應(yīng)該被允許做什么」。這個轉(zhuǎn)向的速度,取決于類似Sama事件的曝光頻率,以及監(jiān)管回應(yīng)的力度。對于正在布局這一賽道的團隊,現(xiàn)在建立倫理基線,比事后補救成本更低。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.