故事案例类116号作品:AI假儿子

“儿子”突然的关心?AI诈骗以假乱真!

 

人工智能(AI)技术迅猛发展,目前已经可以做到根据照片生成视频、根据零星的语音片段生成一个“人”与你实时通话。这些技术在方便了我们的日常生活的同时,也为网络诈骗分子提供了更加难以甄别的手段!

 

案例1

“我在国外上学。有一天我妈妈接到一个电话,号码很陌生,但又怕是我从国外打来的,于是接听了。电话里的‘我’先跟我妈唠家常,然后好像‘不经意’地说起我要办假期去别的国家旅游的签证,要一笔钱在xx账户上,让我妈早点把钱打过去。

幸亏我妈后来又主动联系了我,才避免了上当受骗。而且我妈的手机有通话自动录音功能,我听了那段录音,也觉得那真的是我的声音!AI的合成声音太能以假乱真了,不多方验证真的连我自己都觉得那是我的声音!”留学生小吴谈起妈妈险些被骗仍然心有余悸。

 

案例2

 

很多人应该都看过这段视频:“很多人问我,为什么不回国发展,要在中国待着……”视频中,一位名叫“Wendy”的“外国女孩”用流利的中文侃侃而谈。和她用着“同一张脸”的账号有好几个,有的叫“阿琳娜”,有的叫“娜塔莎”。事实上,这些账号的“脸”都来自一位乌克兰网红博主Olga Loiek,不久前她发布视频称,她的面孔被他人盗用,并利用AI技术生成了视频。

相信大家对网上的外国人说着流利的汉语且连口型和肢体动作都非常“真实”的视频一定不陌生。什么时候老外突然这么会说汉语了?实际上,这些视频全都是经过AI处理的假视频。

 

总结:

 

只要给AI提供足够多的信息,比如我们平时发布在社交平台的个人照片、语音和文字,AI就可以生成一个足以以假乱真的虚拟形象,哪怕AI和你的亲人通话,甚至是视频通话,都可能“蒙混过关”。所以,请大家一定要提高警惕,一旦对方提到转账、中奖、退款、传唤、亲人受伤等等需要你按照对方说的做的事情,一定要多方核实;无法核实的,请联系附近派出所民警帮忙。切勿慌张、给骗子可乘之机!

Copyright © 威海传媒网 鲁公网安备 37100302000175号 鲁ICP备06041465号