在今年两会期间,全国政协委员靳东的一番发言引发广泛关注。在政协小组讨论会上,靳东针对 AI 换脸导致的诈骗问题郑重发声:“一些喜爱我影视剧的观众,被 AI 换脸视频骗得很惨,这个性质非常恶劣。” 他呼吁建立更完善的规则,推动 AI 换脸技术立法,以遏制此类乱象。
近年来,随着 AI 技术的迅猛发展,AI 换脸、拟声等深度合成技术从实验室走向大众视野。这本是科技进步带来的新变革,却被一些不法分子恶意利用,衍生出一系列严重的社会问题。“AI 真假靳东” 事件就是典型案例,不少账号打着靳东的名号,利用 AI 换脸炮制虚假视频吸引粉丝,再借此谋取不正当经济利益。这些虚假账号常常通过甜言蜜语哄骗中老年观众,部分观众深陷其中,不仅在情感上遭受欺骗,甚至还被诱导转账,损失大量钱财。
类似的 AI 换脸诈骗案例不在少数。此前,江西赣州一名女子深陷 “AI 靳东” 骗局,坚信视频中的 “靳东” 对自己告白、求婚,甚至打算为此离婚。江西宜春一位 65 岁的老太,在 “AI 靳东” 的蛊惑下,前往银行要求贷款 200 万元资助所谓的 “男友” 拍戏。数据显示,仅 2024 年上半年,AI 换脸相关诈骗案同比增长 470%,超七成受害者为老年人,单笔最高涉案金额达 238 万元。除了针对普通民众的诈骗,公众人物也深受其扰,“AI 张文宏” 被用于直播带货,“AI 雷军” 语音包遭恶意剪辑传播虚假言论等事件频发。
靳东指出,这种行为不仅侵害了公众人物的肖像权、名誉权,更严重威胁到普通民众的财产安全,极大地破坏了社会信任体系,对社会秩序造成了极大冲击。面对 AI 换脸技术的失控局面,他认为必须尽快明确技术使用边界,建立严格的追责机制,加强对技术应用的全方位监管。通过立法的形式,为 AI 换脸技术划定清晰的法律红线,让其在合法合规的框架内发展。
其实,针对 AI 深度合成技术,我国已出台了一些相关规定。2023 年,国家网信办、工信部、公安部联合发布出台《互联网信息服务深度合成管理规定》,明确要求任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息。2024 年,网信办发布《人工智能生成合成内容标识办法 (征求意见稿)》,提出对 AI 生成合成内容进行标识,以便公众识别和区分,防止误导性信息传播。在司法实践中,国内也审结了首例 AI 生成声音人格权侵权案,法院认定未经授权利用 AI 生成他人声音并对外出售的行为构成侵权。但从现实情况来看,这些规定和案例尚未形成足够的威慑力,无法有效遏制 AI 换脸技术的滥用。
业内专家也纷纷表示,立法监管是当务之急,但在立法过程中需要兼顾技术创新与社会责任。一方面,要严厉打击技术滥用行为,对非法采集、使用他人面部信息等侵权和诈骗行为予以重罚;另一方面,也要为 AI 换脸技术的合法应用留出空间,鼓励其在影视制作、文化创意等领域发挥积极作用。比如,可以通过建立 AI 生成内容标识管理制度,让公众能够清晰辨别内容来源,增强大众对 AI 换脸内容的鉴别能力。同时,各大社交平台、视频平台也应积极承担责任,利用先进的 AI 检测技术,加强对平台内容的审核,及时发现并处理违规换脸内容,并且建立便捷的用户举报机制,形成全民监督的良好氛围。此外,还需要加强对公众的科普教育,尤其是针对易受骗的老年群体,提高他们对 AI 换脸诈骗等风险的防范意识,教会他们如何辨别虚假信息,避免成为受害者。
靳东在两会的发声,让 AI 换脸诈骗这一社会问题再次成为焦点。期待相关部门能够重视起来,加快立法进程,完善监管体系,让 AI 换脸技术回归正轨,不再成为诈骗分子的帮凶,切实保障公众的合法权益,维护社会的和谐稳定 。