一位印度阿姨用泰米爾語問AI:"發燒三天了,吃撲熱息痛夠嗎?"系統先是用英語回了一大段,最后才補上一句"請找會說泰米爾語的醫生"。她愣是沒看懂。
這不是翻譯故障。這是過去三年Health AI的集體盲區——14億非英語使用者被默認按下了靜音鍵。
![]()
翻譯層的"禮貌性崩潰"
原文里的AI回應堪稱經典:先用英語分析病情,再建議"重新用英語提問"。
潛臺詞很直白:我假裝聽懂了你,但建議你換個我能懂的方式。
這種"翻譯按鈕后裝"的架構,在日常閑聊里還能蒙混。一旦涉及醫學——癥狀描述、用藥劑量、檢查項目——語義損耗直接變成安全風險。阿姨聽到的"paracetamol may help"和她真正想問的"要不要去醫院"完全是兩道題。
母語推理 vs 英語內核
真正的差距在第二張圖里攤開了。
同一癥狀,母語級AI的回應是:"發燒超過三天別只吃撲熱息痛,得查登革熱、傷寒、瘧疾。做血常規+登革熱NS1檢測,24小時內看醫生。"
沒有翻譯腔。沒有"請用英語重新表述"。用藥名是本地通用說法,時間單位用"24小時"而非"one day",連檢查項目的縮寫都按印度醫院的習慣排列。
這不是語言包的差異,是推理層的差異——模型得先"想"成泰米爾語,而非想成英語再轉碼。
22種語言的"無英文化"實驗
GoDavaii的做法是反向操作:不拿英語模型打底,直接讓22種印度語言成為一等公民。泰米爾語、博杰普爾語、馬拉地語、孟加拉語……列表長到能覆蓋印度90%以上的門診對話場景。
關鍵指標很樸素:用戶能不能用"思考時的語言"完成一次完整的醫療咨詢閉環。不是輸入母語、輸出英語,而是輸入母語、獲得母語級的醫學邏輯。
團隊現在公開測試,邀請用戶"用家鄉話提問,告訴我們哪里崩了"。這種"找茬式"迭代,本質上是在補過去三年Health AI欠下的語言債。
被忽視的"默認設置"陷阱
英語優先的設計慣性,讓全球AI產品反復踩同一個坑:先把英語版做扎實,再"適配"其他市場。適配的結果往往是功能閹割或體驗斷層。
印度市場的特殊性在于——這里沒有單一的"第二語言"。 Hindi不是所有人的Hindi,英語更是少數人的特權。Health AI要觸達真正的下沉用戶,必須從"翻譯后裝"轉向"母語原生"。
阿姨測試的殘酷之處在于:她不會反饋"體驗不佳",只會默默關掉App,繼續去排三小時的門診隊。沉默的流失比差評更致命。
冷幽默結尾
最諷刺的是那張系統提示:"Are you sure you want to hide this comment?"——連報錯信息都是英語的。
印度阿姨大概會心想:我隱藏的不只是評論,是對整個AI醫療的信任。畢竟,一個連"發燒別硬扛"都要我用英語重說的系統,怎么敢托付發燒的孩子?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.