前几天刷到一张“马云”在月球散步的图片,配文说是AI随手搞的。点开后才发现,画面细节逼真得几乎能骗过熟悉他的朋友。于是我开始琢磨:把名人的容颜交给算法,究竟该划到哪根红线?
技术上,这类图像往往靠大规模的生成模型——比如Stable Diffusion、Midjourney——先学习海量公开照片,然后根据文字提示“某某在某某场景”。模型本身不懂“名人”,只是在像素层面拼凑。
去年一位时尚博主在Instagram上贴出“已故歌手在2026年演唱会现场”的海报,配文称“AI复活”。不少粉丝激动点赞,却也有媒体指出,这类图像可能侵犯了已故者的遗产权益。法院随后受理了相关诉讼,判决要求删除并赔偿。
“技术本身没有善恶,关键在于使用者的动机和监管的力度。”——法律学者林晓明
如果把AI当成画笔,那它的每一次挥动都要有人负责。于是,平台开始尝试在上传图片时加入“AI生成提示”,让观众在看到明星“新造型”时先有个心理预警。可是,真正的红线会不会被技术的光彩冲淡,仍是个值得拧眉思考的问题……
所有资源来源于网络,如有侵权请联系站长。
参与讨论
反正我分不清真假图了
能不能立法禁止这类合成?
粉丝看到已故偶像“复活”得多难受
建议平台直接屏蔽这类内容