(来源:中国妇女网)
转自:中国妇女网
数字艺人“人山人海”脸引发争议
某影视传媒公司“官宣”的AI数字演员。视频截图
□ 中国妇女报全媒体记者 黄婷
随着AI技术在影视领域的快速应用,AI演员面部侵权风波接连上演。从AI短剧角色疑似使用明星面部形象,到影视公司AI数字艺人被指撞脸多位真人演员,再到北京互联网法院认定AI换脸某演员的短剧构成肖像权侵权,系列事件引发全网热议。
侵权认定标准为“可识别性”
3月18日,上海一家影视传媒公司发布视频,“官宣”签约秦凌岳、林汐颜两位AI数字艺人,开通实名制社交媒体账号并宣称其参演的AI剧集即将上线,引发广泛关注。然而,全网热议焦点集中在两位AI数字艺人外貌“和多位明星撞脸”,有网友称其为“人山人海”脸。这样的“撞脸”是否侵犯肖像权?
“AI面部侵权的认定标准为‘可识别性’,只要技术生成的内容能让公众稳定识别出特定自然人,未经许可的使用就可能构成侵权。”北京市中盾律师事务所执行主任、高级合伙人尹超表示,民法典第一千零一十九条明确禁止“利用信息技术手段伪造”等方式侵害肖像权,即便AI生成形象并非直接复制原素材,只要具备了可识别性(即公众一看便知是谁),未经许可的制作、使用面部特征的行为即构成侵权。“人脸信息属于民法典第一千零三十四条和个人信息保护法第二十八条规定的生物识别信息,是典型的敏感个人信息,处理此类信息必须取得个人的单独同意。”尹超说。
在京师(全国)刑事专业委员会理事、律师赵文捷看来,多位明星“被撞脸”,本质上是对民法典第一千零一十八条“可识别性”原则的挑战——法律不关心图像是否由代码生成,只关心公众是否会产生明确关联联想。即使制作方声称“随机生成”,只要观众能一眼认出明星特征,侵权即成立。
3月20日,北京互联网法院通报一起因AI换脸短剧“神似”演员迪丽热巴而引发网络热议的肖像权纠纷案。法院认定,短剧制作方擅自使用深度合成技术生成与某演员高度相似的形象,侵害其肖像权;短剧播出方未尽合理审查义务,同样承担相应责任。
“该案是短剧领域AI换脸侵权的标杆性判决。”尹超认为,该案在司法层面确定了“可识别性”作为AI肖像权侵权的核心认定标准,合理分配举证责任,破解了AI侵权举证难的痛点,填补了类案裁判空白;在行业层面否定了短剧用AI换脸规避授权成本的潜规则,划定技术合规红线,倒逼制作方与平台完善事前合规机制;在社会层面则强化了数字时代人格权的司法保护,为公众维权提供了清晰指引,明确AI创作行为及其后果绝非“无拘无束”。
“值得注意的是,肖像权的保护不仅限于完整人脸,声音同样受到法律保护。”赵文捷补充道,去年全国首例“AI声音侵权案”明确,如果AI合成的声音能让公众通过音色、语调联想到特定配音演员,同样可能涉嫌侵权,侵权方需承担相应赔偿责任。
AI撞脸并非只有制作方需担责
如果认定构成侵权,责任该由谁来担?
赵文捷表示,AI短剧撞脸侵权风波中,并非只有制作方需要担责,平台方、技术提供方作为产业链关键环节,同样肩负着合规义务,一旦缺位,就可能承担相应法律责任。
在具体责任划分上,尹超表示,制作方是直接侵权主体,承担停止侵害、赔偿损失等民事责任,情节严重的需承担行政、刑事责任;技术平台诱导侵权或明知侵权未处置的,与侵权人承担连带责任,同时需履行算法备案、内容标识等法定合规义务;传播平台适用“避风港规则”——接到合格侵权通知未及时采取必要措施的,对损害扩大部分承担责任,若平台知道或应当知道侵权未制止,则触及“红旗原则”,可能需承担全部责任。
尽管AI肖像侵权的责任主体已明确,但实际整治过程中还存在不少难点。“核心难点集中在技术、监管、举证三大层面。”赵文捷认为,AI生成形象的技术门槛持续降低,且通常并非直接复制真人照片,而是通过算法融合拼接生成,这使得侵权行为难以从源头识别与避免。同时,侵权行为跨平台、跨地域传播,存在“先传播后发现”的滞后性,而且制作方、平台方、技术提供方责任边界模糊,协同监管较难实现。此外,权利人需证明AI形象具有“可识别性”、侵权行为存在及自身确有损失。但AI技术的介入使得“可识别性”的认定变得更加主观,AI生成的脸,可能既像A又像B,或者在不同语境下引发不同联想。
在AI撞脸和AI换脸的行为表征和异同点,以及法律责任是否相同方面,尹超表示,二者核心侵权判定逻辑一致,均以可识别性为核心标准,核心差异在于行为方式与举证标准:AI换脸是对他人肖像直接替换、拼接的深度伪造行为,侵权行为直接,主观恶意易认定;AI撞脸是拟合生成高度相似数字人,无直接素材拼接,是否构成近似,以及行为人是否存在主观故意或过失,将影响赔偿责任的认定及赔偿数额,因而举证标准更严格。
“二者若被认定构成侵权,承担的法律责任类型差别不大;个案中会根据行为恶意程度、损害后果、传播范围等,对责任承担比例、赔偿数额作出差异化认定。”尹超提到,从司法实践与责任承担的实操层面来看,同等传播范围、侵权情节下,AI换脸行为的违法后果通常更重。
赵文捷表示,国内AI换脸相关侵权案例已有多起,权利人维权时通常会从著作权、肖像权两个核心角度主张权利;而新出现的、通过算法融合生成形象进而“撞脸”现实人物的情况,维权难度相对更大。
筑牢AI时代肖像权保护防线
明确侵权差异与责任划分后,如何整治AI肖像侵权乱象、保障权利人合法权益,成为亟待解决的重要问题。
尹超表示,对侵权行为的整治需构建“事前合规指引+事中技术拦截+事后惩戒救济”的闭环体系,压实平台主体责任,强化多部门联合监管,完善行业自律与司法兜底。
赵文捷建议将“原创优先+平台前置审核+技术合规设计”作为行业合规生存指南,即开发具有独立特征的AI角色,避免对真人特征的拼接模仿;建立AI形象比对库,拦截高风险内容;工具方引入“肖像权保护模块”,从源头降低侵权可能。
如果认为AI数字艺人的形象侵犯了自身肖像权,该如何维权?
尹超表示,权利人应立即对侵权内容、发布账号信息、发布链接、传播数据、获利情况等内容进行完整截图、录屏,优先通过公证处进行证据保全公证。并向传播平台发送包含权利人身份证明、权属证明、侵权内容和证据、处置要求的通知,要求平台立即下架、屏蔽侵权内容;同时向侵权制作方、发布者、AI数字运营方发送《律师函》,责令其立即停止侵权行为。
此外,针对侵权内容的性质,权利人可向国家网信办举报中心、属地网信部门举报违法违规行为。若侵权内容涉及诽谤、诈骗、制作传播淫秽物品、侵犯公民个人信息等违法行为,立即向属地公安机关报案;若用于虚假商业宣传、不正当竞争,向属地市场监督管理部门举报,通过行政监管手段快速处置侵权行为。“经协商未果的,权利人可向被告住所地、侵权行为实施地、侵权结果发生地(含原告住所地)的人民法院提起民事诉讼。”尹超表示。
赵文捷特别提到,明星作为公众人物,侵权行为更易被发现,普通人的侵权风险真实存在且日益凸显,权益受损往往更隐蔽,“比如面部信息被用于小众AI短剧、虚假宣传甚至电信诈骗等场景”。
她认为,降低风险可从事前防范、事中应对两方面着手:事前做好信息保护,不随意在非正规平台上传高清人脸照、视频,拒绝不明App的人脸采集,特别是有些免费的换脸视频或图片的生成游戏,如果发现自身肖像被AI盗用后要及时固定证据。“只有当普通人也能像明星一样‘发现即能维权、维权即有效果’,AI技术的滥用才能真正得到遏制。”赵文捷说。