防不胜防的“AI换脸”诈骗,怎么防?

2023-05-26 09:12:42 来源:BRTV北京您早

点开直播间乍一看,卖货的竟是当红女星。再定睛一看,“明星”其实是使用人工智能(AI)实时换脸技术的普通主播。他们冒充明星艺人,只为增加卖点,助力卖货……

近期,“AI换脸”的应用范围越来越广,但存在滥用之嫌,甚至有人利用AI换脸实施犯罪,例如伪造不雅视频、换脸诈骗等。前不久,就有一男子因AI“偷脸”,10分钟被骗430万元。

5月24日,中国互联网协会发文提醒,不法分子利用AI技术,通过声音合成,伪造成特定人物的声音,通过AI换脸,伪装成特定人物,实时与他人进行视频通话。更换后的面部表情自然,以假乱真,能够冒充他人身份联系被害人,博取被害人信任后实施诈骗。面对利用AI技术的新型骗局,广大公众需提高警惕,加强防范!


【资料图】

公司老板遭遇AI换脸诈骗

10分钟被骗取430万元

近日,内蒙古包头警方发布一起利用AI实施电信诈骗的典型案例。

来自福建的郭先生是一家科技公司的法人代表。今年4月,他的好友突然通过微信视频联系他,称自己的朋友在外地竞标,需要430万元保证金,想借用郭先生公司的账户走账。

基于对好友的信任,加上已经视频聊天“核实”了身份,郭先生在10分钟内,先后分两笔把430万元转到了对方的银行账户上。

事后,郭先生拨打好友电话才得知被骗,原来骗子通过AI换脸和拟声技术,佯装好友对其实施诈骗。“当时是给我打了视频的,我在视频中也确认了面孔和声音,所以才放松了戒备。”郭先生事后说。

AI换脸冒充明星带货

律师:或涉嫌侵权

除了佯装“熟人脸”实施诈骗,AI换脸还可能出现在直播带货中。最近,网上出现了一些“换脸直播”教程,教程发布者声称实时变脸软件可以帮助用户轻松“变脸”,极大地助力引流卖货。

在一个展示换脸直播效果的视频中,使用者把名为“成龙”的模型载入相关软件后,摄像头前的人在直播画面中就有了与成龙相似的五官,但脸型和发型还保持原样。

记者发现,使用者歪头或变换表情时,五官动效切换得自然顺滑,只有手掌从脸前划过时,出现了比较明显的破绽。

发布者展示换脸为“成龙”的实时效果和软件界面(视频截图)

北京岳成律师事务所高级合伙人岳屾山表示,换脸直播用于公开传播可能涉嫌侵犯相关明星艺人的肖像权。如果涉及直播带货等商业行为,会成为加重情节。

岳屾山解释,只要未经肖像权人同意,在直播中通过技术手段把自己的脸换成了明星的脸,就是对明星肖像的侵权。根据不同情况,承担的后果可能不同。即便只是娱乐,不涉及盈利行为,也属于侵权。如果把明星肖像用于带货直播,属于是商业行为,在赔偿数额上一定会给予考虑。如果主观恶性、过错程度比较大,且因此获利,赔偿数额可能会更高。

记者注意到,一些使用换脸技术的直播并不会直接提到相关明星艺人的名字,但也不会主动声明或者否认。岳屾山认为,该行为涉嫌欺诈或是虚假宣传,让公众误以为就是明星在带货。如果货品本身质量不好,或者主播在带货过程中说的话或行为导致公众对被换脸的明星产生负面评价,明星可以主张名誉权的侵权责任。

AI技术存在滥用风险务必保持防范意识

AI诈骗常用手法

如何防范AI诈骗

来源:人民日报、千龙网、新华网

编辑:肖宬

责编:黄广

上一篇:

我国将重点在四方面推进与中亚国家经贸合作

下一篇:

我国将重点在四方面推进与中亚国家经贸合作

推荐阅读