“亲人”突发意外电话告急需紧急转钱却连连遭骗……
明明是亲友“本人”进行了电话沟通
或是进行了视频连线
为何还是被骗了呢?
近日,宁夏固原市警方揭露了一起AI换脸诈骗案件。案件的主角是固原市辖区居民马某某,他在社交平台上被自称是其在非洲务工的“表哥”骗走了1.5万元。
一、案件回顾
马某某在刷视频时收到了“表哥”的好友请求,添加成功后,对方发起了视频通话。视频中的“表哥”称自己在非洲,网络不稳定,需要马某某帮忙垫付一份合同的资金。
由于对方利用AI技术换脸,马某某在视频中看到的是其亲戚的脸,因此没有怀疑,分三次将钱转到了对方指定的账户。事后,马某某通过微信询问亲戚时才得知被骗。
二、利用AI诈骗手法
“AI换脸”。不法分子收集受害人或其重要关系人的人脸特征,使用AI技术替换视频、图像中的人脸,通过视频通话的方式来取得受害人的信任以实施诈骗。
“AI拟声”。不法分子通过电话录音、视频语音等方式获取受害人或其重要关系人的声音特征,使用AI技术进行模仿和伪造,合成带有口音、语调的声音进一步迷惑受害人。
三、如何防范AI换脸拟声诈骗
1. 多重验证确认身份:在网络中“眼见”不一定为实,换脸拟声等合成技术的一大特点是“以假乱真”,对熟人朋友线上发来的消息,若包含转账、汇款等敏感信息的请求时,应保持高度警惕,通过主动更换通讯方式、询问双方知晓的特定问题等多种方式确认对方身份。
2. 加强个人信息保护:尽量避免在互联网过多暴露姓名、电话、社交账号、个人照片、声音、视频等信息;对需要录入个人信息的非正规软件特别警惕,特别是在录入“人脸识别信息”“指纹识别信息”等个人生物信息时,一定要慎之又慎。
3. 提升安全防范意识:AI换脸拟声具有高度迷惑性,要对身边的亲友多加提醒,让他们了解AI诈骗的常见手段,安装国家反诈中心APP,在涉及钱款时要保持怀疑,一旦发现风险及时报警求助。
四、检察官提醒
AI技术的发展带来了便利,但也带来了新的挑战。我们需要提高自我保护意识,学习相关知识,以防范AI换脸拟声等新型诈骗手法,无论技术如何发展,保持警惕永远是防范诈骗的第一道防线。