点击上方蓝色字体免费订阅“灰产圈”
今年 7 月,鹅师傅的小伙伴公布了打击违法违规账号的数据,其中在 2019 年上半年里“仿冒诈骗”举报量超 5.7 万次。
诈骗团伙还逐渐形成“盗用名人肖像制作海报”“批量生产高仿号”的仿冒诈骗新套路。
那种“猜猜我是谁”“我是你领导”的冒充亲友、同事电话诈骗,你应该也遇到过,它们曾一度高发,直至现在也依然流传。纵使人与人之间相隔几千公里,依然可以使用电话、语音等方式成为亲密对话的朋友,或者是有大额金钱往来的合作伙伴。与此同时,有诈骗分子利用这一点,用“声音”做着坑蒙拐骗的坏事儿。除了常见的“猜猜我是谁”电话诈骗,还有抠脚大汉使用变声软件伪装成“软妹子”通过网恋诈骗的案例在近年来也层出不穷。然而更让鹅师傅头疼的是,随着技术进步,已经有人开始使用人工智能来合成、克隆语音进行诈骗。也就是说,诈骗分子已经能够模仿出你亲朋好友、领导同事等特定某一个人的声音,给被害人打电话了。这次,鹅师傅为大家完整梳理一遍那些利用“声音”来犯罪的高发、新型诈骗案例。在新闻节目中,不愿意透露个人信息的受访者,就会被变声和打码。不过“变声”已经从专业软件,变成公众随时可用的功能。手机端的变声专用 app 就不少,甚至还能针对不同的社交平台、游戏平台进行变声。另外,一些社交类 app 也提供实时变声的功能,可以是不同年龄段的男声和女声,甚至可以添加上不同的情绪效果,比如喘息声、沮丧声等。某输入法软件在终端也有“变声功能”,用户对着手机说的话,在好友那边就是周星驰、林志玲、高晓松这些名人的声音了。市面上已经有一些手机,可以在通话时提供实时变声。一些提供变声功能的适配器,能够通过连接电脑、手机使用。这些能够变声的软件和硬件,如果落到了诈骗分子的手里,会发生什么事情呢?2019 年 8 月 25 日,《钱江晚报》为大家报道了一个悲伤的变声诈骗故事:一个杭州小伙子小赵以为在网络找到“真爱”,被骗子用变声电话诈骗,一年半内转账 1800 多次,共被骗 72 万元。故事是这样的:章某把自己的社交账号伪装成年轻女性,更换头像并且发各种“精致女生”的社交动态。章某添加被害人小赵,并与之“网恋”。确定关系后,章某除了在各种节日中索要“520”“1314”“888”等数额的红包,还以借钱、家人生病、朋友逝世、购物等各种理由让章某转账。可能恋爱中的人,智商真的会下降。小赵在不到一年半的时间里,转账超过 1800 次,共高达 72 万余元。在他们“网恋”的时间里,他们并没有见过面。那么小赵为什么会被爱情冲昏头脑的呢?章某除了发送年轻女性的文字、图片、视频,还用变声软件和小赵打电话。应该净是变声的“甜言蜜语”“嗲气撒娇”吧。更绝的是,章某还变声成“妈妈”,换一个号码作为“妈妈的手机”与小赵沟通联系。没错,靠着变声软件,一个抠脚大汉不仅伪装成了温柔可爱、声音甜美的“女友”,还伪装成了丈母娘。另外,每次小赵、章某相约线下见面时,章某使用软件发送虚假定位后,每次都会以不同的借口爽约。冒充女网友的章某,最后以 诈骗罪 判处有期徒刑 10 年,并处罚金 10 万元,责令退赔小赵其余经济损失 60 万元。我们发现,这种变声软件诈骗已经出现了很多年,除了男声变女声,女声变男声进行网恋诈骗,还有冒充记者、领导、公检法工作人员等角色进行诈骗。如今,我们对语音的识别、处理、生成等技术,也到达了新的境界。这种高度模仿某一个人说话声音和方式的技术,也有人称之为“语音克隆技术”。我们开车使用的导航地图软件,就有不同明星的语音包。无论是林志玲的温柔声音,还是郭德纲的经典嗓门,随着语音合成相关技术的进步,这些导航软件播报的声音,都是通过记录明星本人的语音数据,利用人工智能技术对这些语料库进行训练学习,进而由语音合成技术生成的。一些具有变声功能的软件,在其语音合成、语音克隆背后,也有人工智能相关技术的支撑。就目前而言,语音合成、语音克隆技术已经比较成熟,相应的技术也在网络上代码开源了。比如这个名为 Real-Time-Voice-Cloning 的开源项目,就能让使用者在短短的 5 秒内做到克隆声音。开源让全世界更多人可以更轻松地使用前沿技术,其中也包括诈骗分子。当诈骗分子获取了某个人的语音数据,通过这类人工智能训练模型,就能把自己的声音变成模仿对象的声音,甚至做到低延时、实时。这也意味着,通过人工智能技术变声,完美模仿另一个人,已经能够在实时的通话中应用,并成为不法分子违法犯罪的工具。“我是你领导”这类电话诈骗,已经出现了被人工智能技术加持后的升级版。根据媒体报道,一个英国能源公司的 CEO 遇上了“AI 变声”诈骗,诈骗分子利用 AI 语音合成技术,模仿出他老板的声音,骗走了 22 万欧元(约合 173 万元人民币)。这个被骗的 CEO,是德国某能源公司的英国子公司负责人。诈骗分子冒充的是德国母公司的老板。英国子公司 CEO 表示,他在今年 3 月接到了“德国母公司老板”的电话。他被告知,“德国老板”在跟匈牙利供应商谈合作,需要英国子公司把钱打给匈牙利供应商,账先从英国走,之后母公司会补上。“德国母公司老板”还要求他必须在一个小时之内打款。这一通电话里的“德国母公司老板”,说话跟之前一模一样,英语中带着一些德国口音,英国子公司 CEO 信以为真了。第一笔 22 万欧元,转到了“匈牙利供应商”的账上。当天,“德国老板”继续给英国子公司 CEO 打电话,要求他继续打款,理由是母公司已经把早前的 22 万欧元给你们了,现在需要你们再帮忙走一笔账。然而这时候英国子公司的人发现,他们并没有收到所谓的 22 万欧元,电话的源头也有蹊跷。这笔 22 万欧元的损失由保险公司 Euler Hermes 支付。该保险公司的反欺诈专家 Rüdiger Kirsch 对外表示:在此之前,他们从未处理过使用人工智能进行犯罪而造成的索赔案件,这种通过 AI 技术进行诈骗的模式,也被称为 vishing(语音网络钓鱼)。转给了骗子的 22 万欧元,被转移到了墨西哥等多个国家,要想寻回也是相当困难。对于国内的朋友来说,AI 技术用于语音服务的黑产早已为人知晓。今年 315 晚会上,使用 AI 拨打骚扰电话的黑产链条就被曝光了。这些 AI 不仅一天能拨打超过 1000 个电话,还能做到语调、对话以假乱真。只要犯罪分子有一定的技术基础,AI 语音技术已经是唾手可得。当陈旧的诈骗手段和场景,用上 AI 变声,或许被害人的数量会出现指数级的暴增。按照如今的技术发展,AI 能够无中生有的东西太多了。美国高校的研究团队发布的成果显示,用来换脸的 AI 技术 deepfakes,就已经进化成可以任意生成、篡改视频和语音。在这个视频中,电视台主持人原本说的是:苹果股价收盘于 191.45 美元。然而却被 AI 将数字改为“182.25 美元”。AI 换脸、变声,让静态人像照片说出特定的话,让一个静态人像做出各种肢体动作……阿鹅,我是你领导,马上给我转 100 万到 XXXXXXXX 这个账户。
诈骗分子发来一张用领导照片合成的讲话视频,还做出他的经典动作。当然,这个“领导”,还可能是诈骗分子伪装的父母长辈、兄弟姐妹、同事、朋友……难道,为了防止跟自己远程沟通的人是冒牌货,可能要对暗号了?那可能暗号还需要经常换才管用。随着人工智能技术的发展和应用,我们在享受这项技术所带来的创新、便捷,也应该对这项技术进行必要的规范和监管。AI 换脸、换声这类技术,不仅造成了“色情报复”、政治风险,也在让各类网络诈骗有可乘之机。诈骗分子会使用新型技术进行犯罪,利用 AI 换脸、变声等手段去伪造视频或假冒角色,在网络诈骗的场景中应用。当伪装手段变得高明,防范的难度也将急剧上升,被迷惑、诈骗的人数也有可能爆发。当一件两件 AI 犯罪事件浮出水面,也意味着背后有大量的人已经遭遇了同类诈骗,或者即将面临网络安全风险。有网络安全公司公布的数据显示,在 2013-2017 的五年间,语音欺诈数量增长高达 350%,还划了一个重点:每 638 个电话中,就有 1 个是虚假语音诈骗。AI 如同一个潘多拉宝盒,它可以成为别有用心的人手里作恶的工具,也可以是造福社会的技术。在鹅师傅看来,为了防止这类技术被用来作恶,需要来自多方的共同努力。首先,我们需要有技术和方法去有效识别虚假的 AI 信息,通过技术去对抗黑产。可以预知的是,这类造假与识别造假的技术对抗,只会不断动态升级,不会停止。
其次,作为提供服务的互联网平台,也需要承担起监督和管理的责任,依法保护用户数据和用户隐私,并且建立防治虚假信息的机制,积极参与黑产打击。
随着人工智能技术逐渐大规模应用,法律政策层面的立法、监管也需尽快出台,从而明确规范、有法可依,进一步保障公众的网络安全。
与此同时,公众也应该及时了解技术发展的趋势,增加自身防骗的意识和能力,提高警惕。
文章来源: http://mp.weixin.qq.com/s?__biz=MzIyMDYwMTk0Mw==&mid=2247496198&idx=2&sn=49b5f1b8c4fcb3ab6b1f9723531dd8c6&chksm=97cb393ea0bcb028eee07e0c1154c526d617d7585767edaf6998f7659e3e2e9e71eb5c35b540#rd
如有侵权请联系:admin#unsafe.sh