央视新闻客户端 2026-04-04 16:49:24
近日,多名配音演员公开发声,反对擅自采集其声音素材用于AI训练、音色合成及商业变现的行为。这场来自配音行业的集体发声,让“AI声音侵权”这一话题冲上热搜,引发了全社会对自然人声音权益保护的广泛关注。

事实上,利用AI克隆公众人物声音的现象并不鲜见。在体育圈,去年就有博主利用AI技术仿冒奥运冠军全红婵的声音,在网络平台上叫卖土鸡蛋;孙颖莎、王楚钦的声音也被克隆,用于“婵宝家土鸡蛋”的带货推广。在娱乐圈,演员靳东等人的声音同样未能幸免,被部分博主克隆后用于24小时语音直播。

这些被业内称为“偷声”“洗声”的行为,不仅严重侵害自然人的人格权益,还会滋生虚假宣传、网络诈骗等违法犯罪,影响数字经济的健康发展。针对这一新兴侵权现象,《法治日报》记者邀请清华大学法学院教授、个人信息保护与数据权利研究中心主任程啸,就自然人声音权益保护及AI克隆声音的法律边界等问题进行专业解读。
记者:最近多名配音演员公开抵制利用AI技术擅自使用他们的声音。在普通大众看来,AI技术似乎能轻易复制他人的声音,这种行为在法律上是如何定性的?之前是否有相关的判例?
程啸:利用人工智能技术克隆他人声音的侵权行为及引发的纠纷并非新鲜事。2024年4月,北京互联网法院就审结了全国首例“AI声音侵权案”。在该案中,法院判决认定,被告未经合法授权即使用原告声音、开发案涉AI文本转语音产品,构成侵权,判决赔偿原告各项损失25万元并书面赔礼道歉。这明确表明,未经本人同意或无法定事由,克隆生成与特定自然人声音高度相似的声音,就会侵害其声音权益。
在前人工智能时代,传统的录音技术只是将已有的声音固定到一定的物质载体上以备重现。但随着人工智能技术的快速发展,如今利用声音数据和深度学习模型,便可以对声音特征进行建模与学习,从而进行声音克隆、语音转换等AI声音处理活动。其中,声音克隆属于深度合成技术的一种,其通过对特定自然人的语音数据进行深度学习,训练出相应的人工智能模型,进而生成与该特定自然人声音高度相似的语音内容。这项技术的核心,在于对人的声音特征进行建模与再现。声音克隆的应用场景有很多,如数字人配音、个性化语音助手、名人或逝者的声音复刻。不过,如果没有获得自然人的同意或授权,很容易侵害他人合法权益。
记者:我们注意到,民法典中并未规定专门的“声音权”。那么,法律如何保护我们的声音不被随意复制、模仿或伪造?
程啸:虽然我国法律没有将声音权规定为一项具体的人格权,但依据我国民法典、个人信息保护法等法律,自然人的声音可以通过肖像权、个人信息权益加以保护;在某些情形下,还可以通过著作权法以及反不正当竞争法加以保护。
依据民法典,自然人的声音权益可参照适用肖像权保护的规定。由于每个自然人在音色特征、发音习惯、语速节奏、声音质感等方面都有所不同,因此声音作为个人的生理标识,与肖像一样,可以用于识别特定的自然人。例如,一些著名艺术家、演员的声音就为社会大众所熟悉。
为防止他人随意复制、模仿、伪造特定自然人的声音,损害自然人的人格尊严和财产利益,民法典第一千零二十三条第二款明确规定,“对自然人声音的保护,参照适用肖像权保护的有关规定”。也就是说,民法典中关于禁止他人擅自制作、使用、公开肖像权人肖像的规定,关于肖像合理使用的规定,以及关于肖像许可使用合同的规定,都可参照用于对自然人声音权益的保护。
记者:除了像肖像权一样受到保护,声音在数据层面是否也有特殊的法律地位?例如我们常说的“声纹”,是否属于个人信息?
程啸:是的,自然人的声音还可以依据个人信息保护法获得保护。自然人的声音属于个人信息。通过技术手段从声音中提取的、能够反映特定个体声音特征的声学特征模式,即声纹,属于自然人的生物识别信息(生物识别数据),是敏感个人信息。
依据个人信息保护法,自然人对其个人信息的处理享有知情权和决定权,有权限制或拒绝他人处理,除非法律、行政法规另有规定。因此,任何人要利用自然人的声音来训练人工智能语音产品或者克隆其声音,都必须取得该自然人的单独同意或具备法定事由。否则,声音被他人非法处理的自然人,有权以侵害个人信息权益为由提起诉讼。
记者:您刚才提到了“肖像权保护”和“个人信息权益保护”两种路径。在实际维权诉讼时,这两种方式有哪些具体区别?
程啸:实践中,自然人是通过肖像权还是个人信息权益来保护声音权益,区别主要在两个方面。
一是可识别性的认定标准。如果原告以侵害肖像权为由起诉非法进行声音克隆的行为人,就必须判断通过人工智能生成的声音能否识别出原告本人。司法实践中,被告往往会抗辩称,案涉声音经AI处理,不具有可识别性,社会公众难以仅凭声音识别出原告声音。而对于克隆后的声音是否具有可识别性,应当以社会一般人听到该声音后能否识别出特定自然人为标准。“社会一般人”的具体范围,需结合声音主体的社会知名度等因素来确定。
如果原告以侵害个人信息权益为由起诉,那么在认定被告所处理的声音信息是否属于个人信息时,可采取技术判断标准。换句话说,即便社会一般人通过听觉无法识别出特定自然人,但只要通过声纹比对等技术手段能确定是原告的声音,就应当认定该声音为原告的个人信息,被告的行为构成侵权。
二是侵权赔偿责任的归责原则。原告参照肖像权保护的规定起诉,适用的是民法典第一千一百六十五条第一款规定的过错责任原则,即原告需要证明被告在克隆或使用声音时存在主观上的过错。而如果以侵害个人信息权益起诉,考虑到个人信息处理者与个人之间技术能力等方面的不对等,适用的是个人信息保护法第六十九条第一款规定的过错推定责任,即由个人信息处理者证明自己没有过错,而非由个人证明处理者有过错。
记者:您刚才提到,在某些情形下,还可以通过著作权法以及反不正当竞争法加以保护。能否介绍一下运用这两部法律维护自身权益的具体场景和前提?
程啸:涉及著作权法保护的情形主要是,行为人未经同意而擅自使用他人享有著作权的影视原声音频,进行声音克隆或语音合成。此时,行为人不仅会侵害该演员或配音演员的声音权益,还因其未经许可使用、改编他人享有著作权的影视作品的片段,而构成侵害著作权或者与著作权有关的权利。至于适用反不正当竞争法加以保护的情形,主要是发生在经营者通过声音克隆实施足以引人误认为是他人商品或者与他人存在特定联系的混淆行为的情形中。
法条链接:
民法典第一千零二十三条第二款 对自然人声音的保护,参照适用肖像权保护的有关规定。
民法典第一千一百六十五条第一款 行为人因过错侵害他人民事权益造成损害的,应当承担侵权责任。
个人信息保护法第六十九条第一款 处理个人信息侵害个人信息权益造成损害,个人信息处理者不能证明自己没有过错的,应当承担损害赔偿等侵权责任。
点评:
近年来,人工智能技术的普及让声音克隆变得轻而易举,众多非专业人士利用开源软件或相关平台便可模仿生成各类声音。然而,操作的门槛降低了,侵权的现象也变多了,自然人声音权益保护面临前所未有的挑战。
对于配音演员或公众人物来说,声音是极具稀缺性的个人资产,一旦被盗用,无疑会蒙受不小损失。生活中,一些网络用户、平台及机构在未经授权的情况下,将权利人的声音作为训练数据生成声音产品,或利用AI技术合成权利人具有独特辨识度的声音用于影视二次创作、短剧配音、商业宣传等公开传播活动,不但涉嫌侵犯权利人的人格权等权益,还可能损害其个人声誉、职业发展和商业价值。这也是近期多名配音演员集体发声维权的原因。
对于普通大众而言,声音侵权同样会给生活带来一定负面影响。虽然普通人并不把声音作为谋生工具,但声音作为每个自然人的人格权利和生物识别信息,其重要性不容忽视。近年来,全国各地已发生多起利用AI合成语音实施诈骗的案件,无疑给所有人敲响了警钟。
AI声音侵权乱象之所以频发,根本原因在于侵权成本低而维权成本高。一方面伪造门槛极低:仅需几秒的音频素材,就能复刻出以假乱真的仿声内容;在一些电商平台,花几元钱就能完成声音克隆,更不用提那些免费的开源软件和声音素材。另一方面维权成本高企:侵权内容分散,电子证据易被篡改且溯源困难;AI“盗声”技术持续升级,通过融合不同声线生成语音成为主流,声纹取证与鉴定费时费力又费钱;此外,侵权赔偿金额计算难、对声音“可识别性”的判定标准不一,也是声音维权的痛点和难点。
要破解AI声音侵权困局,实现对自然人声音权益的全方位保护,关键在于提高侵权成本、降低维权门槛。例如,在法律层面,应细化AI声音侵权的认定标准、责任划分及赔偿机制,为权利人提供清晰维权指引;在技术层面,可推动AI声音水印、区块链溯源等技术手段的研发与应用,让侵权行为无处遁形;在责任落实层面,应推动制作公司、网络平台等切实履行主体责任,通过建立健全相关机制,遏制“偷声”“盗声”等不法行为在网络空间蔓延。
声音,既是人格尊严的外在表达,也是数字时代个人身份的重要标识。技术的进步不应以牺牲个体权利为代价。当克隆声音变得轻而易举,保护声音权益的法治防线更应坚不可摧。唯有让侵权者付出应有代价,让维权者拥有通畅路径,方能在技术浪潮中守护好每个人的独特声纹,让AI技术真正服务于人,而非侵扰于人。
责编:张子仪
一审:张子仪
二审:刘文韬
三审:贺佳
来源:央视新闻客户端
我要问

下载APP
报料
关于
湘公网安备 43010502000374号