![]()
2026年3月,數十位知名配音演員相繼在社交平臺發聲,明確表示:任何組織或個人,未經本人授權,不得采集其聲音素材;不得將聲音用于AI模型訓練與音色合成;更不得以AI合成聲音進行商業變現。
聲音,是配音演員受法律保護的民事權益,更是其賴以生存的職業根基。 我國《民法典》第一千零二十三條明確規定,對自然人聲音的保護,參照適用肖像權保護的有關規定。這意味著,聲音與肖像一樣,具有人身專屬性,未經許可,他人不得制作、使用、公開。
然而,AI技術的快速發展,讓聲音權益保護面臨新挑戰。當聲音可以被低成本、高效率地克隆,當技術模糊了真實與合成的邊界,配音演員的合法權益如何保障?公眾又該如何識別和信任"聽到的聲音"?
一、案情溯源
配音演員葉清在短視頻平臺刷到一部AI短劇,旁白的聲音與他塑造角色的聲音高度相似——音色、語調、停頓習慣如出一轍,可他從未授權。季冠霖的聲音被用于"魔改印度版《甄嬛傳》",音色相近卻失去了她賦予角色的情感層次,淪為機械朗讀。配音導演李龍濱坦言,部分AI仿聲相似度超過90%,連專業人士都需仔細分辨。
這些被盜用的聲音滲透到各個角落:短視頻解說、游戲配音、虛擬主播、電商帶貨。不僅是配音演員,公眾也難免存在這樣的擔心:
如果這些聲音被用于違法言論、虛假廣告,甚至詐騙,公眾如何辨別?責任又該如何界定?
二、法律分析
《中華人民共和國民法典》第一千零二十三條第二款規定:"對自然人聲音的保護,參照適用肖像權保護的有關規定。"
《中華人民共和國個人信息保護法》第四條規定:"個人信息是以電子或者其他方式記錄的與已識別或者可識別的自然人有關的各種信息,不包括匿名化處理后的信息。"
第二十八條規定:“敏感個人信息是一旦泄露或者非法使用,容易導致自然人的人格尊嚴受到侵害或者人身、財產安全受到危害的個人信息,包括生物識別、宗教信仰、特定身份、醫療健康、金融賬戶、行蹤軌跡等信息。”
這意味著,法律明確參照肖像權的形式保護自然人的聲音。聲音權作為一種標表型人格權,具有以下特征:
- 獨特性:每個人的聲音都有獨特的聲紋、音色、頻率,如同指紋一樣具有唯一性
- 穩定性:成人的聲音特征相對穩定,不會因年齡或環境輕易改變
- 可識別性:聲音能夠讓他人聯想到特定自然人,具有身份識別功能
保護內容
參照肖像權的保護規則,聲音權包括以下權能:
- 制作權:依法錄制自己的聲音;
- 使用權:使用或許可他人使用自己的聲音;
- 公開權:決定是否公開自己的聲音;
- 許可權:許可他人使用自己的聲音并獲得報酬。
合理使用情形
《民法典》第一千零二十條規定了肖像權(及聲音權)的合理使用情形:
? 為個人學習、藝術欣賞、課堂教學或者科學研究,在必要范圍內使用已經公開的聲音
? 為實施新聞報道,不可避免地使用聲音
? 為依法履行職責,國家機關在必要范圍內使用聲音
? 為展示特定公共環境,不可避免地使用聲音
? 為維護公共利益或者聲音權人合法權益,使用聲音的其他行為
需要注意的是,合理使用必須滿足兩個條件:非營利目的和必要范圍。商業使用不在合理使用范圍內。
三核心爭議
實際上,這場集體聲討背后,是三個核心法律爭議:
爭議一:AI訓練使用公開配音作品,是否構成侵權?
配音演員為影視作品、有聲書等錄制的音頻,形成錄音制品。錄音制品的錄音制作者權通常歸屬于制作公司或平臺;配音演員對其表演依法享有表演者權(含署名、保護表演形象、許可傳播等權利)。
但核心在于:
- 公司 / 平臺享有錄音制品著作權,不等于有權提取其中的聲音素材用于AI訓練。AI訓練直接使用的是配音演員的聲音人格要素,而非單純的錄音制品表達。
- 聲音屬于自然人的人格權益,參照肖像權保護,具有人身專屬性。不得轉讓、放棄或繼承,僅可通過獨立的聲音許可使用合同授權他人在約定范圍使用。
- 著作權合同無法一并轉讓或處分聲音人格權益。即便公司取得錄音制品的完整著作權,未經配音演員本人單獨、明確許可,將其聲音用于AI訓練仍構成對聲音權益的侵害
爭議二:聲音克隆技術是否侵犯了配音演員的"聲音權"?
AI生成的聲音雖非原聲的簡單復制,而是算法合成的新聲音,但法律對聲音權益的保護,核心標準并非 “是否復制”,而是 “是否具有可識別性”。
依據《民法典》第1023條第2款,自然人聲音權益參照肖像權保護。
司法實踐(全國首例AI聲音侵權案)明確:只要AI合成聲音在音色、語調、發音風格等特征上,足以讓一般公眾或相關領域公眾識別為特定配音演員,即便非100%復刻原聲,也應納入該演員聲音權益的保護范圍。
因此,未經配音演員本人許可,制作、使用或公開具備可識別性的AI合成聲音,即構成對該演員權益的侵害。
爭議三:普通用戶使用AI配音工具,是否需要承擔連帶責任?
(一)普通使用者購買并使用的侵權認定
AI音色未經配音演員許可制作并公開銷售,且該音色具備可識別性(公眾可關聯到特定演員)時:
- 明知/應知侵權仍購買使用:構成對配音演員聲音人格權益與表演者權的共同侵權,應承擔停止侵害、賠禮道歉、賠償損失等責任。
- 善意、無過錯購買使用:一般不承擔賠償責任,但應立即停止使用該侵權AI音色;已支付的費用可向銷售方追償。
(二)平臺應承擔的法律責任(分層責任)
直接侵權責任(銷售/提供方)
平臺未審核AI音色的合法授權即上架銷售,或明知/應知侵權仍提供銷售/技術支持,與制作方構成共同侵權,承擔連帶賠償責任。
網絡服務提供者責任(平臺方)
- 事前審核義務:對上架AI音色,應審核聲音權利人授權文件與錄音制品著作權授權,二者缺一不可。
- 通知-刪除義務:接到權利人有效通知(含身份、侵權證據、定位鏈接)后,應及時采取刪除、屏蔽、斷開鏈接等必要措施;未及時處理的,對擴大部分損失承擔連帶責任。
行政/刑事責任(情節嚴重時)
- 平臺拒不履行審核/處置義務,或大規模侵權牟利,可能面臨行政處罰(罰款、停業整頓);
- 情節嚴重構成犯罪的,依法追究刑事責任(如侵犯著作權罪、非法經營罪)。
四自查清單
在使用AI配音工具前,我們為大家提供了一份可供參考的自查清單:
? 基礎審查
- 我使用的AI配音工具是否明確標注"聲音素材已獲授權"?
- 工具提供方是否公開了聲音素材的來源和授權證明?
- 工具的用戶協議中是否包含聲音使用的授權條款?
? 使用場景審查
- 我的AI配音是否僅用于非商業目的(如個人練習、學習交流)?
- 如需商用,我是否獲得了原始聲音提供者的書面授權?
- 我的AI配音是否避免了模仿特定知名配音演員的聲音特征?
? 內容合規審查
- 我的AI配音內容是否包含違法信息、虛假信息?
- 我的AI配音是否侵犯了他人的人格權、名譽權?
- 我的AI配音是否涉及政治敏感內容?
? 標識與披露
- 我是否在作品顯著位置標注"AI配音"或類似提示?
- 我是否在作品說明中披露了AI配音工具的名稱?
- 我是否保留了AI配音的生成記錄和技術來源證明?
暢森律師提醒您:
配音演員們的集體發聲,并非抗拒技術進步,而是維護自身合法權益的正當訴求。聲音作為人格權益的重要部分,承載著個人身份標識、情感表達與職業價值,技術發展絕不應以犧牲創作者權益為代價。技術創新理應服務于人,而非侵害合法權益。唯有在法律框架內規范運用,尊重并守護聲音權益,才能平衡技術發展與權利保障,擁抱技術、善用技術,促進行業健康有序發展。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.