央视报道 | 天融信薛智慧:揭秘AI换脸诈骗手段,新技术犯罪该如何防范
2024-2-29 17:54:56 Author: mp.weixin.qq.com(查看原文) 阅读量:9 收藏

扫码订阅《中国信息安全》

邮发代号 2-786

征订热线:010-82341063

央视报道

近日,央视新闻报道,西安一家公司财务人员因接到AI换脸后“老板”的视频电话,险将186万转给骗子;一家跨国公司香港分公司因未能识破AI换脸骗局,被骗走了 2500 万美元(约 1.8 亿人民币)。随着人工智能技术的进步,一些不法分子开始利用AI技术融合他人面孔和声音,制造非常逼真的合成图像来实施新型网络诈骗,这类骗局常常会在短时间内给被害人造成较大损失。如何看清这类AI“深度造假”成为时下关注的热点。

中国网络空间安全协会人工智能安全治理专委会专家、天融信科技集团副总裁薛智慧接受采访表示,人工智能技术应用需要多层面监管规范,从源头、技术与法律制度等层面出发加强安全评估和管理。

技术上如何实现人脸精确识别与替换

采访过程中,薛智慧演示了AI实时换脸,仅需短暂数秒,即可实现全新的“面容”转换。

AI换脸过程主要包括人脸识别追踪、面部特征提取、人脸变换融合、背景环境渲染、图像与音频合成等几个关键步骤。其背后的原理可概括为三个部分:首先,利用深度学习算法精准地识别视频中的人脸图像,并提取出如眼睛、鼻子、嘴巴等关键面部特征;其次,将这些特征与目标人脸图像进行匹配、替换、融合;最后通过背景环境渲染并添加合成后的声音,最终生成逼真度较高的虚假换脸视频。

人工智能人脸检测技术主要通过深度学习算法实现,通过识别出面部特征并对其进行精准的分析,将一个人的面部表情从一张照片或视频中提取出来,并将其与另一个人的面部特征进行匹配。如果想要实现视频实时通话时采用人工智能AI换脸技术,一张照片是远远不够的,那就需要不同角度的近千张照片的采集。

薛智慧强调:如果要实时点对点交流的话,需要采集更多的照片,进行深度学习算法模型的训练,训练出来这个模型以后灌到视频里去,就可以做实时的变化跟转换了,进而达到实时变脸的效果。声音的交流也是如此,需要预先采集一些咱们目标人群当中的声音,然后进行模型的训练,能够把目标人群的声音还原出来。

AI生成仿真度极高视频 难度高投入大

以诈骗为目的,实施点对点视频通话,需要AI人工智能生成仿真度极高的视频。想要达到以假乱真效果用于诈骗,难度不小。

薛智慧介绍:这背后需要有大量的资金投入,包括图片的采集、专业算法的人员支撑等等。各方面的投入,需要长时间不断地迭代,进行操作,才能达到一个相当逼真的效果,进而可能实现到诈骗的实际效果。

目前AI“换脸”更多应用于娱乐视频录制

除了一些不法分子企图利用AI技术实施诈骗,事实上,近年来,AI技术更多地被应用于短视频的二次创作,属于娱乐性质,越来越多的名人AI换脸视频出现在网络上,不少网友感叹,这类视频“嘴型、手势都对得上,太自然了,差点儿以为是真的。”

△网友发布的女士系丝巾原版视频

△需要变换的脸的照片

△生成视频

薛智慧表示:如果从娱乐大众的角度来说的话,现在市面上也有很多相关软件和工具,能够达到AI换脸的效果,但是仿真度只有六七分的样子,大众直接就能看出来。但是如果要生成一个诈骗视频来说话,就要生成仿真度极高的点对点视频。

AI技术“换脸换声”可能存在法律风险

AI技术是把“双刃剑”,即使是出于娱乐使用AI换脸、AI换声,也是存在法律风险的。用AI技术为他人换脸换声甚至翻译成其他语言并发布视频,可能涉嫌侵权,主要有三个方面:

一是涉嫌侵犯著作权,例如相声、小品等都属于《中华人民共和国著作权法》保护的“作品”。例如网友用AI软件将相声、小品等“翻译”成其他语言,需经过著作权人授权,否则就存在侵权问题。

二是涉嫌侵犯肖像权,根据《中华人民共和国民法典》,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。未经肖像权人同意,不得制作、使用、公开肖像权人的肖像,但是法律另有规定的除外。

三是涉嫌侵犯声音权,根据《中华人民共和国民法典》规定,对自然人声音的保护,参照适用肖像权保护的有关规定。也就是说,需要取得声音权人的同意,才能够使用他人的声音。

提高防范意识 避免个人生物信息泄露

我们每一个人都应该提高防范意识,在日常生活中也要做好相关防范措施,养成良好的上网习惯。首先应该是做好日常的信息安全保护,加强对人脸、声纹、指纹等生物特征数据的安全防护:另外做好个人的手机、电脑等终端设备的软硬件的安全管理。第二,不要登录来路不明的网站,以免被病毒侵入。第三,对可能进行声音、图像甚至视频和定位采集的应用,做好授权管理。不给他人收集自己信息的机会,也能在一定程度上让AI换脸诈骗远离自己。

伴随AI技术发展 需要多层面监管规范

除了要提高自我防范意识,如何对AI技术加强监管,也成了越来越多人关注的问题。AI技术本身不是问题,关键是我们要怎么用它?如何形成有效监管?AI技术发展,需要多层面监管规范。

一是在源头端,需要进一步加强公民个人信息保护,尤其是加强对生物特征等隐私信息的技术、司法保护力度。

二是在技术层面可以加强管理。例如可以让视频传播网站或者社交软件,使用专业的鉴别软件来鉴定,对AI生成视频,打上不可消除的“AI生成”水印字样。目前,这种数字水印鉴伪技术有待进一步普及。

三是在法律制度层面,要进一步完善人工智能等领域相关法律法规。2023年8月15日,我国正式施行《生成式人工智能服务管理暂行办法》。《办法》从多个方面“划下红线”,旨在促进生成式人工智能健康发展和规范应用。 

《中国信息安全》杂志倾力推荐

“企业成长计划”

点击下图 了解详情


文章来源: https://mp.weixin.qq.com/s?__biz=MzA5MzE5MDAzOA==&mid=2664206177&idx=1&sn=c6e3eebcf61f75627f9dcdfe97819337&chksm=8b598d98bc2e048e0d531b7d67912f17b10b51f3f8574755cc9e2ad92f91f9f9bb3da39b0ef9&scene=58&subscene=0#rd
如有侵权请联系:admin#unsafe.sh