新闻观察:AI诈骗利用“两张牌” 偷脸骗信任
“AI换脸”诈骗频发
随着AI技术的不断成熟,其应用范围越来越大、应用场景越来越多,比如虚拟主播,比如最近爆火的“AI孙燕姿”,还有很多网友热衷的通过“一键换脸”变身剧中人等等。曾经离我们很遥远的AI,如今正迅速进入大众生活。然而,需要注意的是,骗子也盯上了AI技术,例如伪造不雅视频、假扮熟人诈骗等。前不久,我们栏目就报道了福州一男子接到一通被AI“换脸”的视频电话,10分钟被骗走430万元。这几天,类似的AI换脸诈骗案件又在安徽上演,受害人被骗金额同样不小。那么,AI“换脸”到底有多像?多难以分辨?我们先来看一位记者的“换脸”体验。
陕西都市青春频道记者 折华戈:相信很多人都用过AI换脸的小程序,就是选一段电影或电视剧的片段,再放上一张自己的正脸照片,10几秒后,视频中的主角就换成我们自己了。那么我现在就把我换成电视剧《狂飙》中的主演,我们一起来看一下效果。
陕西都市青春频道记者 折华戈:这个效果真的让我很震惊,首先是脸和身体非常同步,完全没有换脸的痕迹,连表情、皮肤状态都和主演本人一模一样啊!那么这样的技术也难免让人心有疑虑啊,我们通过视频所看到的东西有多少是真,多少是假呢?
陕西都市青春频道记者 折华戈:可以说AI换脸技术已经比较成熟了,而现在更是有不法分子利用AI换脸进行诈骗。
安徽安庆:接“熟人”视频电话 男子9秒被骗132万
继此前福州发生“10分钟被AI换脸骗走430万元”案件之后,安徽又发生一起类似案件。5月22日,安徽安庆的何先生接到熟人视频电话,让他帮忙转一笔账。但9秒之后,对方以“在开会”为由,迅速挂断了电话,还称“微信和电话不能说,加一下QQ”。因为打了视频电话,又是熟人,何先生没多想就转账了。发现被骗之后,何先生迅速报警,专案民警第一时间冻结相关账户,连夜赶赴北京抓获了3名涉诈嫌疑人,追回何先生被骗的132万元。
广西南宁:“桃花运”变“桃花劫” 男子被敲诈近19万
除了通过AI换脸假扮熟人来实施诈骗外,还有假扮“美女”实施诈骗的案例。今年3月,广西南宁刘先生的微信收到了一个女性头像的好友申请,在添加了对方为好友后,这位所谓的“美女”引诱刘先生进行裸聊。经过几天的暧昧聊天后,对方邀约刘先生到附近开一间房等她,没想到,等待刘先生的并非“桃花运”,而是一场骗局。
南宁市公安局南湖分局南湖派出所民警 黄小镔:去到酒店以后对方就以他,裸聊的那个视频威胁他,就是敲诈他,如果不转钱给他们的话,就会把视频发给他的家人、朋友 ,然后让他名誉受损。
惊慌的刘先生赶紧按对方的要求,删除了所有聊天记录,并给对方转账18万9800元。刘先生报警后,警方表示,刘先生碰到的有可能是AI换脸诈骗。
南宁市公安局南湖分局南湖派出所民警 黄小镔:所谓的“裸聊”诈骗,你面对的可能不是一个真的美女,而是一个用AI合成的仿真人,它并不是真实的他(不法分子)就是用这种方式,来威胁你、诈骗敲诈你的钱财。
“AI换脸”诈骗频发
“AI换脸”诈骗案件频频发生,也给我们敲响了警钟。近日,中国互联网协会专门发文,提醒广大公众警惕“AI换脸”新骗局。那么,普通人该如何防范?“AI换脸”的法律边界在哪?我们接着来看。
普通人该如何防范?
中国互联网协会发文提醒,对利用AI技术的新型骗局,广大公众需提高警惕,加强防范。(全包装)首先要加强个人信息保护意识,防止信息泄露:不轻易提供人脸、指纹等个人生物信息给他人;不轻易透露自己的身份证、银行卡、验证码等信息;不贪图方便把身份证、银行卡照片等直接共同存放于手机内。此外,远程转账时务必多重验证,在AI时代,文字、声音、图像和视频都有可能是深度合成的。在转账汇款、资金往来这样的典型场景,要通过回拨对方手机号等额外通信方式核实确认,不要仅凭单一沟通渠道未经核实就直接转账汇款。遭遇诈骗信息,可至12321.cn反诈专栏举报,如发生资金损失要及时报警。
“AI换脸”法律边界在哪?
事实上,为了规范人工智能发展,加强深度合成服务治理,国家互联网信息办公室、工业和信息化部、公安部已于去年底联合发布了《互联网信息服务深度合成管理规定》,该规定于今年1月10日正式生效实施。《规定》明确了合成数据和技术管理规范,其中要求:深度合成服务提供者对使用其服务生成或编辑的信息内容,应当添加不影响使用的标识。提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认。任何组织和个人不得采用技术手段删除、篡改、隐匿相关标识。
今年4月11日,国家网信办还起草了《生成式人工智能服务管理办法(征求意见稿)》,其中也明确提出:利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。禁止非法获取、披露、利用个人信息和隐私、商业秘密。
近期,也有平台和企业发布了“关于人工智能生成内容的平台规范暨行业倡议”,明确禁止利用生成式人工智能技术创作、发布侵权内容,包括但不限于肖像权、知识产权等,一经发现,平台将严格处罚。
新闻观察:AI诈骗利用“两张牌” 偷脸骗信任
我们以前遇到过QQ诈骗,遇到过电话诈骗,现在骗子手段更“高明”了,开始搞起AI诈骗。我们说诈骗诈骗,一定是抓住了某些层面存在的问题,你认为,目前的问题点出现在哪里?
AI诈骗利用“两张牌” 偷脸骗信任
我们试想一下,如果现在,接到家人的微信视频,说她在医院,马上需要用钱,我们是不是会很着急,赶紧想办法解决问题。所以AI诈骗,真的是细思极恐、防不甚防,可以说,我们普通老百姓还没有来得及真正享受AI普及的红利,但是已经感受到它的重拳。在这个乱局当中,我认为骗子主要利用两张牌。第一是信任的盲区。骗子用的微信号正是我们身边家人、朋友的微信号,轻而易举地就可以获取信任,我想今天哪怕不是AI,只要是微信上面,家人需要用钱,我们可能不假思索转账过去。
第二张牌,其实是一个技术的盲区,就是AI合成门槛降低,但是咱们老百姓鉴别视频真伪的手段、技术还没有提升、没有普及。我刚看了一个视频,有网络博主自己尝试花了400块就完成AI换脸,但是我们有什么办法直接看出它的假的吗?没有。所以正是这种合成和鉴伪的技术落差,给行骗提供了一个很好的土壤。
随着AI的普及,可能这个问题会越来越严重,甚至引发其他问题,那么我们老百姓应该怎么做呢?
科技赋能 提升用户反诈能力
AI换脸技术打破了眼见为实的传统认知,首先,我认为很有必要强化深度鉴伪的技术研发。当我们的聊天平台上,出现没有标识的虚拟视频,它可以有效监管和提醒;微信平台也应该要强化对个人账号的保护,防止账号被盗。另外,从我们个人角度出发,因为现在大数据的普及,在看不见的角落里,我们的个人数据可能就被泄露出去,因此我们在不信任的平台或者机构上,要尽量避免提供我们的个人数据和人脸信息;涉及转账、借钱等问题时候,也一定要多方确认,不要相信单一信息来源。通过这样多方合力,共同减少AI给我们带来的伤害。