北京大学国家发展研究院教授李玲于9月1日对外发布公开声明,称“近期网上出现了大量假冒本人推销医药书籍和治疗手段的虚假视频,大多是人工智能AI合成,这些视频在微信公众号、头条、抖音等平台发布,随后被大量传播,涉嫌严重违法。”
对此李玲已报警处理,并将积极采取法律行动追究策划、制造、恶意传播虚假视频者的法律责任,维护自身合法权益。
并强调:“本人从未在任何平台推销过医药书籍和医疗产品,请大家不要上当受骗。特此声明!”
公开资料显示,李玲不仅是北京大学国家发展研究院的经济学教授,同时也是北京大学健康发展研究中心主任。
AI进步带来的双刃剑矛盾日益凸显,利用AI换脸侵权的情形层出不穷,侵权范围广泛。
近日,在微博等公众平台中,#deepfake(深度欺骗)#话题多日冲榜。一则韩国女性的发帖称,韩国女性陷入了“AI换脸恐慌”,利用deepfake工具进行侵权的行为引发公众关注。
《韩国日报》8月27日报道,韩国总统对该事件公开发声:“最近以不特定人群为对象的deepfake技术影响通过社交媒体迅速传播,不少受害者为未成年人。”据韩国教授联盟估计,已有200所学校受到影响。
韩国总统表示,依靠匿名恶意利用deepfake技术是犯罪行为,希望有关部门通过掌握实际情况和调查,彻底根除此类数字技术犯罪行为。
此外,北京互联网法院此前公布了服务保障新质生产力十大典型案例中,也存在某科技公司未经本人同意,借助AI技术生成与何某高度关联的“AI陪伴者”形象,并且使用了“调教”算法机制,令AI角色更加拟人化。最终法院判决该科技公司的行为侵犯了何某肖像权、姓名权、一般人格权。
借助AI换脸技术实施的违法行为,不止侵犯人身权,还会侵犯财产权。
在今年年初发生的一起诈骗案中,一家跨国公司的一名财务人员就被“AI换脸”欺骗,将2亿港元公司财产转入了不知名账户。经警方调查得知,在诈骗分子发起的“多人视频会议”中其他“参会人员”都是经过“AI换脸”后的诈骗人员,只有受害人一个人是“真人”。
诈骗团伙借助deepfake的技术,仅通过搜集这家公司的公开素材,就成功伪造出了高管们的形象和声音。也就是说,在这名财务职员参加的多人视频会议中,诈骗人员都通过“AI换脸”技术换成了该公司高管的形象,并且模拟了他们的声音。
从这名财务职员的视角,他所看到的每个人—公司CFO、他的同事们—都是假的,其面貌、声音都是由AI生成的。面对熟悉的同事,这名财务职员也放松了警惕,最终将公司的2亿资金转入了不知名账户中。
特别声明:以上文章内容仅代表作者本人观点,不代表支点财经观点或立场。发布者:支点财经,转转请注明出处:https://www.eiying.cn/2024/09/04/11656.html