前几天在咖啡店里,隔壁桌的朋友正用手机跟一个AI聊天机器人对话,结果那机器人把他的声音模仿得和某位明星几乎一模一样,甚至还把对方的口头禅套进去,聊得热火朝天。旁边的服务员好奇地问:“这算侵犯肖像权吗?”我笑着摇头,心里却开始琢磨:当AI可以复制外貌、声音甚至写作风格时,法律到底该怎么划定红线?
目前,我国《民法典》对肖像权、姓名权、名誉权都有明确规定,侵权行为需要取得权利人的授权或在合理使用范围内。但这些条文的文字起草于互联网还未出现深度学习模型的时代,面对AI生成的“仿冒”,法院往往只能套用传统侵权原则。2019 年最高人民法院关于网络侵权的司法解释曾提到,“技术手段复制他人形象”,但并未细化到AI合成的情形。
在美国,2022 年《版权局指引》把“AI 生成内容的版权归属”写进指南,暗示如果AI产出明显基于受保护的作品,仍可能构成侵权。欧盟的《数字服务法》则要求平台在收到侵权通知后“及时移除”,但对“深度伪造”并未提供专门的定义。
AI仿冒的技术壁垒在不断下降。只要几分钟的训练,普通用户就能用开源模型生成逼真的人脸视频。于是,出现了两类典型争议:
如果受害方仅凭“看起来像”来主张侵权,法院审理时会面临“相似度”与“误导程度”的双重考量。有人主张引入“可辨识度”标准:只要普通受众能够辨认出该内容是“伪造”,就满足侵权要件。也有人担心这会导致“合理使用”被过度限制,创作者的表达自由受限。
“技术越先进,法律的灰色地带就越宽。”——某法律科技研讨会发言人
面对日益复杂的AI仿冒场景,监管层面可以从以下几个角度切入:
当然,监管不等于禁令。对艺术创作、戏仿等合法使用场景,仍需保留宽容空间。关键是让技术提供者、内容平台和权利人之间形成“共治”格局——既保护个人形象不被随意利用,又不扼杀创新的可能。
说到这里,你是否也曾在社交媒体上看到过“AI 捏造的明星访谈”,甚至一度以为是真实新闻?如果再遇到类似情形,你会怎么判断它的真伪?
所有资源来源于网络,如有侵权请联系站长。
参与讨论
这玩意儿真能随便模仿明星声音?细思极恐啊