您的当前位置:首页>热点 > 正文

天天新资讯:AI诈骗背后:用照片生成“露脸说话”视频仅需30元

  • 2023-05-25 12:02:20 来源:舜网-济南时报

某天,你的一位熟人发来借钱的请求,随后对方打来了视频。视频接通后你确认长相和声音就是熟人“本人”,你没有怀疑把钱转了过去。没过多久,你发现自己被骗了,刚才视频里那位“熟人”并不是真的他。

这可不是鬼故事,而是已经发生在多位受害者身上的真实案例。

只需一张照片、10分钟声音素材


(资料图片)

近日,一则10分钟被AI骗走430万元的新闻刷屏。据警方通报,受害人郭先生遇到的就是上述情形,骗子通过智能AI换脸技术,佯装成好友对他实施了诈骗。

尤其值得警醒的是,据公开报道显示,利用AI技术实施诈骗,此前已有多起相似案例。而这些案件背后,均涉及了AI换脸以及声音合成技术。

目前,AI换脸随处可见,在短视频平台,不少用户都体验过换脸带来的新鲜感。这项技术也越来越成熟,仅需提供一张照片,就可以让你变成视频中人,或直接生成会眨眼、张嘴的视频。

七七(化名)专门在网上接单用AI帮别人生成视频,“只需提供一张背景干净的正面照,我就能生成视频,不仅眼睛、嘴巴都会动,还能时不时动动头,非常自然。另外如果你提供文字,我还可以让视频中的人物口型对上,配合度很高,可以连续播放1分钟。”七七说,他目前做这个工作已经非常熟练,“一个晚上就能完工”。

除了快速AI换脸,用AI手段合成或克隆声音也越来越常见。

一位商家向记者介绍,只需要提供某人一段10分钟至30分钟的声音素材,要求没有杂音,就能用2天左右时间生成一个专属模型,后续输入任何文字,发出的都是这个人的声音。

“这个办法属于一劳永逸,而且这个模型不仅能读文也能唱歌。一般来说,提供的素材时间越长,最终相似度越高。”上述商家介绍。

成本低至数十元

据了解,目前制作一套“露脸且说话”的视频成本不高。七七表示,用照片生成一段1分钟时长的视频仅需30元左右,如果视频时间比较短,且画面质量要求不高,这个价格可以再降,几块钱一段都可以。上述商家也表示,生成一个专属模型也只需要几十元。

这意味着,如果有人蓄意生成你的长相搭配你的声音的视频,花费也仅需数十元。

不过,对于前述警方通报的案例,网友们也有疑问。比如不法分子是如何获得的郭先生好友的照片及声音素材?本应是即时的视频聊天,郭先生的手机里为何播放的是合成好的视频?

电信分析师付亮表示,假冒某人声音、图像实施诈骗在十多年前就已经出现,严格说目前AI诈骗并不是新类型。“通报中没有详细说明不法分子是如何获取郭先生好友个人信息的,但有一点可以肯定,这位好友的社交媒体账号被盗了。不法分子可能是从社交媒体里直接获取了个人信息,也可能之前以骚扰电话的方式与郭先生的好友联系过,获取了其声音信息。”付亮分析。

而至于为什么接通视频通话,播放的却是已经合成好的视频,付亮分析认为可能是通过插件实现的。

据了解,目前虚拟摄像头就可以做到这一点。利用一个程序,可以在视频通话中让对方看到任何你想播放的视频,其中也包括通过AI换脸和声音克隆合成的视频。

应对“高端”诈骗往往还得靠最朴素的手段

蓄意制作别人人脸、声音的视频是否违法?

北京嘉维律师事务所律师赵占领表示,目前未经他人许可使用其肖像,即使不以营利为目的,也侵犯肖像权。但对于声音来说,目前则不受著作权法保护。“但有些具有显著性的声音申请注册了商标,这种情况下声音是受法律保护的。”赵占领说,如果将合成的视频用于诈骗,且达到一定的数额标准,那就涉嫌刑事犯罪。

目前,针对AI诈骗,包括北京反诈在内的各类平台已向公众发出提醒,甚至称“诈骗成功率接近100%”,并给出了一些提示。值得注意的是,由于对新技术辨别能力不强,这种新型AI诈骗给中老年人更是带来挑战。

在日常生活中,公众除了要注意个人信息保护,不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频外,还要增强意识,尤其是涉及财务往来,务必通过电话、见面等最朴素的途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息。

此外,也要进一步提高和掌握辨别AI合成视频的能力、技巧,目前AI合成的视频虽已比较逼真,但在细节处如色彩分布、肌肤纹理、表情自然连贯性等方面仍有较为明显的瑕疵。(据中新经纬)【相关链接】

中国互联网协会:警惕AI换脸新骗局,远程转账务必多重验证

今年以来,ChatGPT和GPT-4等技术的应用,成为了信息科技领域的热点,引起公众对AI技术的广泛关注。5月24日,中国互联网协会发布公告,面对利用AI技术的新型骗局,广大公众需提高警惕,加强防范。

中国互联网协会表示,伴随着深度合成技术的开放开源,深度合成产品和服务逐渐增多,利用“AI换脸”“AI换声”等虚假音视频进行诈骗、诽谤的违法行为屡见不鲜。

近期,包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信网络诈骗的案件。不法分子利用AI技术,通过声音合成,伪造成特定人物的声音,通过AI换脸,伪装成特定人物,实时与他人进行视频通话。更换后的面部表情自然,以假乱真,能够冒充他人身份联系被害人,博取被害人信任后实施诈骗。

因此,中国互联网协会提示,要做好个人信息安全第一责任人。加强个人信息保护意识,防止信息泄露,不轻易提供人脸、指纹等个人生物信息给他人;不要轻易透露自己的身份证、银行卡、验证码等信息;不要贪图方便把身份证、银行卡照片等直接共同存放于手机内。

其次,陌生链接不要点、陌生软件不要下载、陌生好友不要随便加、不明二维码不要随便扫。管理好自己的朋友圈,不要向陌生人开启手机屏幕共享。

同时,做好个人防护,安装安全软件,防止手机和电脑中病毒;对个人账户的安全状况保持警惕,尤其是陌生设备的登录情况,防止微信、QQ等被盗号给亲朋好友带来麻烦。对于不常用的APP,建议卸载前注销个人账号。

此外,远程转账务必多重验证,把好“钱袋子”。如果有人自称“家人”“朋友”“老师”“领导”通过社交软件、短信、电子邮件等以“手机掉水里了,学校需要紧急交辅导班学费”“人在境外旅游需要帮忙买机票”“给领导办私事需紧急转账”“遭遇车祸需要马上手术”“情况特殊,需要过桥资金拆借”等各种方式和理由诱导你转账汇款,务必第一时间提高警惕。

中国互联网协会表示,在AI时代,文字、声音、图像和视频都有可能是深度合成的,在转账汇款、资金往来这样的典型场景,要通过回拨对方手机号等额外通信方式核实确认,不要仅凭单一沟通渠道未经核实就直接转账汇款,无论对方是谁。(据中国互联网协会网站)

原标题:AI诈骗背后:用照片生成“露脸说话”视频仅需30元

值班主任:李欢

责任编辑:李欢

标签:

推荐阅读

天天新资讯:AI诈骗背后:用照片生成“露脸说话”视频仅需30元

某天,你的一位熟人发来借钱的请求,随后对方打来了视频。视频接通后你确认长相和声音就是熟人“本人”...

辽源市纪委副书记、市监委副主任周振利接受纪律审查和监察调查

吉林省纪委监委24日通报,辽源市纪委副书记、市监委副主任周振利涉嫌严重违纪违法,目前正接受纪律审查和监

武汉一年级小学生校内被老师开车撞倒身亡 家属:孩子6岁,是独子

舜网社会频道发布各类社会新闻,社会万象第一时间呈现。

10岁男童被继父生母杀害,知情人:继父有家暴倾向 世界观察

5月23日,山西运城临猗失踪20天男童被找到,警方确认10岁男童已遇害,孩子的生母和继父已被警方控制。男童

猜您喜欢

【版权及免责声明】凡注明"转载来源"的作品,均转载自其它媒体,转载目的在于传递更多的信息,并不代表本网赞同其观点和对其真实性负责。亚洲经济网倡导尊重与保护知识产权,如发现本站文章存在内容、版权或其它问题,烦请联系。 联系方式:8 86 239 5@qq.com,我们将及时沟通与处理。