北大教授被AI换脸,紧急发布声明:已报警

北京大学国家发展研究院教授李玲于9月1日对外发布公开声明,称“近期网上出现了大量假冒本人推销医药书籍和治疗手段的虚假视频,大多是人工智能AI合成,这些视频在微信公众号、头条、抖音等平台发布,随后被大量传播,涉嫌严重违法。”

对此李玲已报警处理,并将积极采取法律行动追究策划、制造、恶意传播虚假视频者的法律责任,维护自身合法权益。

并强调:“本人从未在任何平台推销过医药书籍和医疗产品,请大家不要上当受骗。特此声明!

公开资料显示,李玲不仅是北京大学国家发展研究院的经济学教授,‌同时也是北京大学健康发展研究中心主任。‌

AI进步带来的双刃剑矛盾日益凸显,利用AI换脸侵权的情形层出不穷,侵权范围广泛。

近日,在微博等公众平台中,#deepfake(深度欺骗)#话题多日冲榜。一则韩国女性的发帖称,韩国女性陷入了“AI换脸恐慌”,利用deepfake工具进行侵权的行为引发公众关注。

《韩国日报》8月27日报道,韩国总统对该事件公开发声:“最近以不特定人群为对象的deepfake技术影响通过社交媒体迅速传播,不少受害者为未成年人。”据韩国教授联盟估计,已有200所学校受到影响。

韩国总统表示,依靠匿名恶意利用deepfake技术是犯罪行为,希望有关部门通过掌握实际情况和调查,彻底根除此类数字技术犯罪行为。

此外,北京互联网法院此前公布了服务保障新质生产力十大典型案例中,也存在某科技公司未经本人同意,借助AI技术生成与何某高度关联的“AI陪伴者”形象,并且使用了“调教”算法机制,令AI角色更加拟人化。最终法院判决该科技公司的行为侵犯了何某肖像权、姓名权、一般人格权。

借助AI换脸技术实施的违法行为,不止侵犯人身权,还会侵犯财产权。

在今年年初发生的一起诈骗案中,一家跨国公司的一名财务人员就被“AI换脸”欺骗,将2亿港元公司财产转入了不知名账户。经警方调查得知,在诈骗分子发起的“多人视频会议”中其他“参会人员”都是经过“AI换脸”后的诈骗人员,只有受害人一个人是“真人”。

诈骗团伙借助deepfake的技术,仅通过搜集这家公司的公开素材,就成功伪造出了高管们的形象和声音。也就是说,在这名财务职员参加的多人视频会议中,诈骗人员都通过“AI换脸”技术换成了该公司高管的形象,并且模拟了他们的声音。

从这名财务职员的视角,他所看到的每个人—公司CFO、他的同事们—都是假的,其面貌、声音都是由AI生成的。面对熟悉的同事,这名财务职员也放松了警惕,最终将公司的2亿资金转入了不知名账户中。

特别声明:以上文章内容仅代表作者本人观点,不代表支点财经观点或立场。发布者:支点财经,转转请注明出处:https://www.eiying.cn/2024/09/04/11656.html

(0)
支点财经的头像支点财经
上一篇 2024年9月4日 上午10:25
下一篇 2024年9月4日 上午10:33

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信