搭上全家!大学生被骗350万,热搜第一!|视频通话“AI换脸”新型诈骗!相似度可达80%
2023-11-6 10:1:1 Author: 黑白之道(查看原文) 阅读量:6 收藏

搭上全家!大学生被骗350万,热搜第一!

近日,长沙警方

  就破获了一起类似案件

  骗子准确说出信息

  导致大学生被骗350万元

  该事件一度冲上

  热搜总榜第一、上海同城热搜榜第一

事情还要从今年4月初说起,正在上学的小谢接到一通电话,对方自称是政府电信局的工作人员。称小谢的电话卡涉嫌洗钱,需要配合警方开展调查。

  随后,小谢的电话被转接到了一个自称为“上海市公安局刑侦支队的警员”那里,对方告诉小谢,她的电话卡涉嫌洗钱,已经被警方立案调查。

  据长沙铁路公安处刑警支队民警分析,为了取得小谢的信任,穿着警服的诈骗分子还通过视频向小谢出示了“人民警察证”“逮捕证”等相关资料,对方告诉小谢,如不配合公安调查,便会将其逮捕,同时还以办案需要为由,特意叮嘱小谢不能将此事告知其他人。

  由于对方可以准确地说出自己的姓名、身份证号、在读学校等信息,还能提供所谓的“办案材料”,强烈地冲击了小谢的心理。

  “我女儿被吓到了,就问诈骗分子怎么办,这个自称警方的工作人员就说,为了证明自己没有参与洗钱,要她把所有的资金全部集中到自己的一张卡上面去,要两三百万。”小谢的父亲表示。

  对方以帮助小谢洗清嫌疑为由,要对小谢的账户进行“资金优先清查”。随后,小谢安装了诈骗分子发来的陌生软件输入了自己的银行卡号、密码等信息,此时,被诈骗人员洗脑的小谢开始四处筹款。她通过向同学及朋友借款以及网络贷款等方式,先后向账户转入150多万元。然而,贪婪的犯罪分子要求小谢再提供200万元的“清查资金”证明清白。

      束手无策的小谢这次只能回家向父母筹款,她谎称自己争取到了留校的机会但需要资金打点。父母将多年的积蓄拿出,同时向亲戚朋友借钱,将筹集到的200余万元全转给了小谢,拿到钱后,小谢又按指示分多次将钱转入账户。

  小谢的父亲回忆道,“她从家里回去学校的高铁上面,突然跟她妈妈说感觉到可能被诈骗了,她就打电话给银行的客服,查询自己银行卡的余额,客服告诉她,近一段时间,她的账户资金大量的进出,相当大,卡上面余额已经没有了。”

      发觉自己遭遇了电信诈骗的小谢,立马下车向警方进行了报案,警方历时6个月,辗转9省追回273万元。

  由于涉案金额巨大,长沙铁路公安处迅速成立专案组,重点围绕涉案资金流、信息流、人员流开展分析研判。

  通过调查,小谢先后35次向嫌疑人指定账户转账350余万元,资金到账后立马被转到了不同的银行卡上,民警立即按照程序对相关账户进行了止付、冻结。

通过调查民警发现,诈骗人员试图通过“贸易对冲”的方式对诈骗资金进行洗白,“此次诈骗资金均流向了一些经营外贸生意的商户卡内,他们主要从事跨境贸易。诈骗团伙与境外货币贸易代理公司勾连,将诈骗的资金作为回款付给国内商户,再通过货币贸易代理公司收取境外客商的货款来对诈骗资金进行洗白。”长沙铁路公安处刑警支队民警赵权称。

      对相关账户进行止付、追款的同时,警方派出工作组对涉案的手机号码进行深挖调查逐步掌握一个以谢某花为首的帮助信息网络犯罪团伙。

  今年4月至9月,专案组相继在广东、广西、浙江、福建等9省20地市,将谢某花、曹某飞、林某等42名涉案嫌疑人抓获归案。

  经查,这个团伙的成员在网上收购公民个人信息,并注册各类聊天软件,帮助境外诈骗分子掩饰真实身份,制作虚假法律文书。目前,相关案件还在进一步侦办中。

  还有哪些诈骗手段?一段时间以来AI诈骗在全国多地均有发生,除了上面的AI换脸外,还有以下几种方式:

  1.声音合成

  骗子通过骚扰电话录音等来提取某人声音,获取素材后进行声音合成,从而可以用伪造的声音骗过对方。

  2.转发微信语音

  骗子在盗取微信号后,便向其好友“借钱”,为取得对方的信任,他们会转发之前的语音,进而骗取钱款。

  尽管微信没有语音转发功能,但他们通过提取语音文件或安装非官方版本(插件),实现语音转发。

  3.AI程序筛选受害人

  骗子利用AI来分析公众发布在网上的各类信息,根据所要实施的骗术对人群进行筛选,在短时间内便可生产出定制化的诈骗脚本,从而实施精准诈骗。

  如何防范此类诈骗?

  多重验证,确认身份

  ■ 如果有人要求你分享个人身份信息,如你的地址、出生日期或名字,要小心;

  ■ 对突如其来的电话保持警惕,即使是来自你认识的人,因为来电显示的号码可能是伪造的;

  ■ 网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助;

  ■ 如果有人自称“熟人”“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息。

  保护信息,避免诱惑

  不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、视频等;

  陌生链接不要点,陌生软件不要下载,陌生好友不要随便加,防止手机、电脑中病毒,微信、QQ等被盗号。

  提高安全防范意识

  公检法没有安全账户,警察不会网上办案,如果有网络警察说你犯事了,让他联系你当地的派出所,你也可以主动打110咨询。

  警方提醒

  如不慎被骗或遇可疑情形

  请注意保护证据

  立即拨打96110报警

视频通话“AI换脸”新型诈骗!相似度可达80%

2023年11月5日,最近,视频网站上通过人工智能换脸,国产影视剧里的主角用英语说起了台词,通过小程序用户也可以将自己变成电影里的人物,新技术带来欢乐的同时,也带来了一种名为“AI换脸诈骗”的新骗术。前不久,国家金融监督管理总局北京监管局发布谨防“AI换脸”等新型欺诈手段的风险提示。
青岛的一名大学生和他在网上认识的“女朋友”视频聊天,对方称需要资金周转,男孩打钱过去之后,发现竟然被诈骗了。
广东深圳某科技公司产品部经理 梁雅婷:通过取证发现,跟他聊天的并不是他的女朋友,对方是通过虚拟的摄像头,用AI换脸的功能跟他聊天。AI如何做到在视频通话时换脸呢?记者在一家为公安机关提供技术支持的科技公司看到的演示,相似度可以达到80%
记者在现场看到,一个高配置的电脑,合成一段10秒的换脸视频只需要一两分钟。而技术的发展,上述案件中视频聊天的实时变脸也不是难事了。广东深圳某科技公司产品部经理 刘远洋:照片上传后,大概有30秒的时间对照片进行特征识别,然后建模,建模后就可以进行实时转换。不管是你的头像,还是你在朋友圈的一张小照片,都可以直接上传。AI生成的技术还在不断更新迭代,比如性别的互换、声音的变换,都可以同步进行。由于算法是开源的,也就是说一个普通的工程师就可以制作出一个变脸软件,这就在控制源头上带来了极大的困难。
通过让对方做动作 可发现部分“AI换脸”破绽
不断迭代的AI技术,已经把换脸视频做到“真假难辨”,我们应该如何防范此类新型诈骗呢?戳视频了解↓↓↓

文章来源 :新闻坊、安全学习那些事儿

精彩推荐



文章来源: http://mp.weixin.qq.com/s?__biz=MzAxMjE3ODU3MQ==&mid=2650581532&idx=1&sn=8bbda8d678fadc90af63ced1dfaba1ef&chksm=83bdcff8b4ca46eebdb75549ccca1d602d82da62f7be0e2fe84fd24b6f0290df1b242e72ea77&scene=0&xtrack=1#rd
如有侵权请联系:admin#unsafe.sh