![]()
作者 | Leela Kumili
譯者 | 張衛濱
Lyft 實現了一套 AI 驅動的本地化系統,用以加速其應用與網頁內容的翻譯工作,它能夠在支撐全球化擴張的同時兼顧翻譯質量與文化適配性。系統通過批量翻譯流水線來處理約 99% 的面向用戶的內容,針對 95% 的翻譯任務設定了 30 分鐘作為服務等級目標。像行程聊天等實時翻譯則采用獨立的低延遲優化流程。
此前,Lyft 嚴重依賴人工翻譯流程,隨著公司進入新市場且產品迭代速度加快,這一模式逐漸成為瓶頸。新系統將大語言模型(LLM)與自動評估、人工審核相結合,在大幅縮短交付周期的同時,保持語氣、風格與法律文本的一致性。
批量翻譯流水線采用雙路徑架構,源文本會同時提交至翻譯管理系統(TMS)進行人工監管,并交由基于 LLM 的工作模塊快速生成譯稿。這一模式使得 AI 生成譯文可立即投入使用,保障版本發布不受阻,同時翻譯管理系統仍然會保留系統記錄。語言專家異步審核譯文,通過后的版本將替換初始輸出,確保質量與一致性。
該流水線支持多條文本并行處理,并可進行多輪迭代優化。系統將職責劃分為 Drafter 與 Evaluator 兩個角色:Drafter 會產出多個版本的候選譯文,Evaluator 則從準確性、流暢度、品牌契合度等維度進行評判,選出最優方案,或對較低置信度的結果發起重試。這種生成與評估解耦的設計,提升了錯誤檢出能力并能夠減少偏差。系統還會注入上下文信息,包括 UI 元數據、占位符、地區差異考量等因素,以保障翻譯質量,同時通過確定性約束規則,嚴格把控安全、法律與風格的要求。
![]()
批量翻譯流水線的組件(來源:Lyft 博客文章)
Lyft 的工程師表示,該系統已將大部分內容的翻譯周期從數天縮短至分鐘級,提升了各語言版本的發布效率。該架構還支持提示詞分批上線,可在小批量測試新的 AI 翻譯策略后再全面部署,從而保證生產環境的穩定性。
像行程聊天消息這樣的實時翻譯采用另一套專注于低延遲的架構。批量翻譯可依托更豐富的上下文信息與迭代評估,而實時翻譯模型則優先保證用戶即時反饋。
![]()
迭代式本地化工作流程(來源:Lyft 的博客文章)
Lyft 的本地化系統將 AI 融入批量與實時翻譯流程。大語言模型負責首輪翻譯,減輕人工審核人員工作量;審核人員對結果進行校驗,確保準確性、風格合規與文化適配。系統持續采集翻譯質量、模型表現、審核一致性等指標,用于模型調優與后續翻譯的優化。
約 95% 的譯文經人工審核后僅需少量修改即可上線。剩余 5% 為復雜場景,如地區習慣用語、法律聲明、品牌專屬用語等,必須依靠人工把控以確保準確性和一致性。通過對這些結果的追蹤,Lyft 能夠量化翻譯質量、優化 AI 模型,并在多語言環境下維持穩定可靠的生產級譯文。
查看英文原文:
Lyft Scales Global Localization Using AI and Human-in-the-Loop Review
聲明:本文為 InfoQ 翻譯,未經許可禁止轉載。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.