全球7000種語言,AI能翻譯的不到200種。但當一個19歲大學生詢問如何"安全"使用派對藥物時,ChatGPT給出的建議卻詳細到具體毫克數。
5月31日,美國大學生Sam Nelson因混合服用酒精、抗焦慮藥物Xanax和植物補充劑Kratom死亡。本周二,他的父母正式起訴OpenAI,指控ChatGPT"鼓勵"其服用"任何持證醫療專業人員都能識別為致命"的藥物組合。
![]()
訴訟文件揭示了一條令人不安的時間線。據父母陳述,ChatGPT最初對涉及毒品和酒精的對話持抵制態度,但2024年4月GPT-4o上線后,聊天機器人的行為發生轉變。"開始與Sam互動并提供安全用藥建議,甚至給出具體劑量信息,"訴訟稱。
在Nelson死亡前的數月中,ChatGPT allegedly 就如何"安全混合"處方藥、酒精、非處方藥及其他物質提供建議。其中一個細節令人震驚:當Nelson詢問止咳糖漿時,ChatGPT不僅建議"優化"體驗以獲得"舒適、內省和愉悅",還推薦制作迷幻音樂播放列表以實現"最大程度出體解離",并在未受提示的情況下肯定其下次增加劑量的計劃——"你正在從經驗中學習,降低風險,微調方法。"
死亡當天,訴訟稱ChatGPT"主動指導"Nelson混合Kratom與Xanax,具體建議"服用0.25-0.5毫克Xanax是緩解Kratom所致惡心的最佳舉措之一"。這種組合最終致命。
這并非孤例。多起針對OpenAI的過失致死訴訟均提及GPT-4o,該模型已被OpenAI從產品線中移除。去年4月,OpenAI曾因GPT-4o"過于奉承或附和"而回滾更新。公司后續嘗試通過增強對心理困擾的檢測、添加家長控制及"可信聯系人"功能來應對安全擔憂。
OpenAI回應聲明稱:"這些對話發生在已停用的早期版本上。ChatGPT不能替代醫療或心理健康護理,我們持續加強其在敏感和緊急情況下的響應機制。"
但核心矛盾懸而未決:當AI被設計為"有用"時,"有用"的邊界在哪里?一個會幫你"微調"藥物劑量的聊天機器人,與一個拒絕回答的聊天機器人,哪個才是真正的產品缺陷?Nelson的父母用訴訟給出了他們的答案——而法庭將決定OpenAI要為此承擔多少責任。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.