设为首页  |  加入收藏
 首页  部门概况  动态信息  服务指南  政策法规  校园管理  安全知识  综合治理  保卫学会 
站内搜索:
 
  安全知识  
 
 媒体安全动态 
 安全教育 
 新生必读 
 案例分析 
 起底邪教 
 
  安全知识
当前位置: 首页 > 安全知识 > 媒体安全动态 > 正文
 
9秒钟骗走132万,如何防范AI换脸骗局 | 每日一问
2023年06月01日 08:00      浏览:


继此前“10分钟被AI换脸骗走430万元”事件引发关注之后,又一起AI换脸诈骗发生。这次金额达到132万,且整个诈骗过程时间更短,只有9秒钟。


AI换脸以假乱真的效果有多强?AI骗局疯狂席卷全国,到底该怎么识破?技术再进步是不是就完全防不住了?腾讯新闻答主们对此展开了讨论:




腾讯新闻答主@超级头脑: 一直从事AI教育,自从近期以第一人称视角的方式揭露了AI诈骗的真相以后,大家可能都以这种方式认识我了。



不得不说,今年AI的浪潮是真的大,这段时间各种AI的应用工具层出不穷,大家感叹到人工智能的时代真的来临了,其实科技革命对于社会发展来说是一件好事,但是在短时间里,一定也会带来相应的麻烦,毕竟这个世界还有由人来驱动的。既然是人,那一定分好人和坏人。AI在不法分子手里能起多大作用?我们可以看下这两个案例。

在新闻背景中提到的两个被骗案例里,AI起到了多大的作用,骗局的核心是AI吗?

诈骗集团使用AI技术进行人脸换脸和语音克隆,冒充受害人亲朋好友,通过社交软件进行诈骗,骗得钱财。AI技术在其中起到了重要作用,它提供了攻击手段,但骗局的核心并不在AI本身,而是人为设计的诈骗方案。如果没有话术和漏洞利用,单纯依靠AI技术也难以实现这两起大规模诈骗。那么,如何识破此类AI诈骗并加以防范呢?首先,我们先来科普一下AI换脸和语音克隆的底层原理。

AI实时换脸的原理是基于生成对抗网络实现。它通过算法和计算机视觉技术,能够在视频流中实时检测人脸,并将其换成另一个人的面孔,达到动态人脸替换的效果。实时换脸的技术流程如下:

1. 训练生成对抗网络,包括生成器和鉴别器,使其能够将人物A的人脸转化为人物B的人脸;

2. 使用人脸检测技术在视频流或图像中实时检测出人脸区域;

3. 将检测到的人脸图片输入到步骤1中的生成器中,输出替换后的人脸图片;

4. 将生成的人脸图片通过图像融合技术,替换视频流或图像中对应人脸区域,实现实时人脸替换;

5. 重复步骤2到4,持续检测人脸并实时换脸,产生动态效果。

由此可见,基于AI换脸,我们破解的方法就清晰了,我们可以要求对方进行人脸识别,用手缓慢在面部晃动遮挡,并要求“挤眉弄眼”如果是用的AI换脸技术,当摄像头检测不全人脸,那么面部一定会出现破绽,扭曲变形。当然,随着AI的不断发展进步,这个弊端未来也一定会被修复。所以呼吁大家深入交流提高辨识度,最好设置一个只有你们俩才知道的“暗号”,这才是目前最安全的方法。如果AI技术继续进步,防范难度无疑会加大。多招同时使用才是最好的应对之策。

AI语音克隆的原理主要基于深度学习的神经语音合成技术。它可以通过学习大量的语音数据,分析语音特征,并产生新的语音样本。具体来说,AI语音克隆通常包括以下步骤:

1. 收集目标人物的大量语音数据。这些数据需要尽量全面,包括不同情绪、语速的语音,用于训练神经网络。

2. 对语音数据进行预处理,包括分离语音与噪音、提取语音特征参数等。常用的语音特征包括线性预测编码(LPC)、倒谱(MFCC)等。

3. 利用深度神经网络对语音数据进行建模。常用的网络结构包括循环神经网络(RNN)、长短期记忆网络(LSTM)、门控循环单元(GRU)等。这些网络可以学习语音的时域特征和序列特征。

4. 利用学习得到的语音模型产生新的语音。输入一段文字或语音特征参数,神经网络可以输出目标人物语音对应的语音数据。

5. 对生成的语音数据进行后处理,包括信号重构、噪音消除等,并将其合成为完整的语音。

6. 循环迭代训练语音模型,不断优化和提高,使其可以生成更加自然和真实的语音。

通过上述步骤,AI语音克隆技术可以"复制"一个人的声音特征并产生新的语音样品。随着数据集和算力的增加,其合成语音的真实度也在不断提高。

由此告诉我们,只要骗子没有我们的语音样本,他就没有办法克隆我们的声音,所以尽可能不要接陌生的电话,让骗子有可乘之机!

AI的弱点在于它无法真正摸清人心,最大的漏洞却往往是源于人性。对亲朋好友的信任和紧张,短时间缺乏了思考判别的能力,才让骗子有了可乘之机!

通过教育提高大众AI意识,培养理性判断能力,加强个人信息保护,这些措施仍有助于应对未来的AI深度模拟和代理诈骗手段。

人工智能是一把双刃剑,它带来便利的同时也催生新型犯罪。但只要人类的理性和判断力不放弃,技术再进步也难以完全击败内在的人性防线。这将是人类与技术共生发展的必经之路。通过教育和知识普及,大众可以做好准备,迎接这场变革和挑战。

最后,再次提醒大家。

在AI时代,文字、声音、图像和视频都有可能是假的,是深度合成的。不要轻易提供人脸、声音等个人生物信息给他人。在转账汇款、资金往的时候,不管对方是谁,一定要通过多渠道,多手段验证。如回拨对方手机号等额外通信方式,不要仅凭单一沟通渠道未经核实就直接相信对方,转账汇款!

-


腾讯新闻科技领域创作者@学术头条:AI 给我们带来的危害,远远不止那些长远的“AI威胁论”,它近在眼前,每个人都必须提高警惕。而且对大多数人而言,他们只有在亲身经历后,才知道自己已经是一个受害者了。


近来,AI 诈骗在全国大爆发,除了本帖提到的“9 秒钟骗走 132 万”,也有“一公司老板遭遇 AI 换脸诈骗,10 分钟被骗 430 万”的热搜新闻,这类事件,比比皆是。


谈到“诈骗科技”,涉及最多的无非是 AI 换脸和拟声技术,不法分子先是佯装成受害人的家人、好友和同事,然后对其进行诈骗。


另外,直播间卖货的当红明星、一些不雅视频中的面孔等等,都可能是不法分子利用 AI 技术制造的骗局。


那么,我们该如何应对“AI 换脸”等新型诈骗呢?


在政策层面,政府和视频平台已经为大众提供了一些保护政策和措施。例如,《互联网信息服务深度合成管理规定》中写道:深度合成服务提供者对使用其服务生成或编辑的信息内容,应当添加不影响使用的标识。提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能的服务的,应当进行显著标识。


本月初,某短视频平台也发布了“关于人工智能生成内容的平台规范暨行业倡议”,明确禁止利用生成式人工智能技术创作、发布侵权内容,包括但不限于肖像权、知识产权等,一经发现,平台将严格处罚。


对于个人而言,理想情况下,最好是“不见真人坚决不相信”。除此之外,我们还要做好个人信息安全的第一责任人,以及在远程转账时务必进行多重验证等。


近日,中国互联网协会给出了一些建议:


1.不轻易提供人脸、指纹等个人生物信息给他人;不要轻易透露自己的身份证、银行卡、验证码等信息;不要贪图方便把身份证、银行卡照片等直接共同存放于手机内。(提示:发现APP过度、强制收集个人信息,请至12321.cn投诉。)


2.陌生链接不要点,陌生软件不要下载,陌生好友不要随意添加,不明二维码不要随意扫描。管理好自己的朋友圈,也不要轻易向陌生人开启手机屏幕共享。

3.做好个人防护,安装安全软件,防止手机和电脑中病毒。对个人账户的安全状况保持警惕,尤其是陌生设备的登陆情况,防止微信、QQ等被盗号给亲朋好友带来麻烦。


4.对于不常用的APP,建议卸载前注销个人帐号。(提示:APP不提供个人帐号注销方式,或为注销帐号设置各类障碍的,请至12321.cn投诉。)


5.如果有人自称“家人”“朋友”“老师”“领导”通过社交软件、短信、电子邮件等以“手机掉水里了,学校需要紧急交辅导班学费”“人在境外旅游,需要帮忙买机票”“给领导办私事,需紧急转账”“遭遇车祸,需要马上手术”“情况特殊,需要过桥资金拆借”等各种方式和理由诱导你转账汇款,务必第一时间提高警惕!


6.在AI时代,文字、声音、图像和视频都有可能是深度合成的。在转账汇款、资金往来这样的典型场景,要通过回拨对方手机号等额外通信方式核实确认,不要仅凭单一沟通渠道未经核实就直接转账汇款!无论对方是谁!

(提示:遭遇诈骗信息,请至12321.cn反诈专栏举报,如发生资金损失请及时报警。)


另外,在技术层面上,AI 也是可以被“欺骗”的。例如,当你接到一位“家人”的视频时,你可以通过让他/她将手指在面部前晃动的方式来验证,如果他/她的脸出现了变形,就立刻关闭视频聊天,直接报警。随着更多人开始关注AI安全,类似这样的验证方法也会越来越多,平时多关注一下。


最后,如果你感觉你正在或已经遭受了 AI 换脸、AI 拟声等诈骗,一定要学会用“法”打败这些“AI 魔法”。当然,正如一开头提到的那样,最好的应对方法是“选择不去相信”。


【每日一问】


9秒钟骗走132万!AI骗局疯狂席卷全国,到底该怎么识破?技术再进步是不是就完全防不住了?


转自:新闻在线

 

网站声明:转载或引用本文,须注明本文出处,违者必究

 

中华人民共和国公安部 | 中华人民共和国应急管理部 | 广西壮族自治区公安厅 | 广西壮族自治区人民政府 | 广西南宁市人民政府门... | 中国反邪教网

广西大学保卫处 版权所有
地址:广西南宁市大学东路100号       邮编:530004