利用仿真技术冒充亲人、同事或公职人员声音相貌行骗的“AI换脸”诈骗,你一定不陌生。前不久,国家金融监督管理总局北京监管局发布谨防“AI换脸”等新型欺诈手段的风险提示。那么,这种骗术到底怎样进行诈骗?要如何防? AI视频通话时换脸 相似度可以达到80% 近期,青岛的一名大学生和他在网上认识的“女朋友”视频聊天,对方称需要资金周转,男孩打钱过去后,发现其被骗了。 深圳安络科技市场部经理梁雅婷介绍,他们通过取证发现,与青岛大学生聊天的对象并不是他的“女朋友”,对方其实是通过虚拟摄像头,然后利用“AI换脸”的功能与他进行聊天。 深圳安络科技产品部经理刘远洋表示,“AI换脸”只需要将照片上传至电脑,打开相关软件选择头像和事先拍摄好的视频,利用工程师设定好的参数,换脸视频就开始生成了。 刘远洋说,做到在视频聊天的实时变脸也很简单,只需要将照片上传,通过约30秒的时间对照片进行特征识别,然后进行建模。建模好后就可以进行实时转换,不管是头像,还是在朋友圈的一张小照片,只要是照片都可以直接上传,进行特征的识别建模,相似度可以达到80%。 AI生成的技术还在不断地更新迭代,比如性别的互换,声音的变换,都可以同步进行。 “AI换脸”用于诈骗 反诈也有新手段 不断迭代的AI技术,已经把换脸视频做到“真假难辨”,那么我们应该如何防范此类新型诈骗呢? 其实,目前视频换脸的技术上也不是无懈可击的,视频沟通时的一些动作,就可以发现破绽。 深圳安络科技副总裁肖坚炜说,在视频中,如果利用第三个图像去干扰它,比如让他用手捂脸等动作,就会干扰到图像的合成。 除了让对方在脸部做出一些动作来判断,专家介绍,AI合成软件的升级可能是飞速的,如果动作捕捉已经被避开,那么就需要通过一些更专业的软件来进行分辨。 利用新技术诈骗与传统诈骗行为在本质上没有区别,防范方式也万变不离其宗。国家金融监督管理总局北京监管局提示:加强个人信息保护,谨防重要信息泄露,仔细辨识存在个人信息泄露的风险点;在涉及转账汇款等资金往来时,要通过拨打对方手机号、当面核实等渠道多方核实、查验真伪,请勿仅凭单一沟通渠道未经核实就转账汇款。 此外,国家也在通过多重手段防范“AI换脸”诈骗,近两年,相关部门先后出台了互联网信息服务深度合成管理规定,生成式人工智能服务管理暂行办法等有关政策文件。先后开展了“互联网深度合成算法备案”“大语言模型算法备案”等有关工作,严厉打击利用“AI换脸”、变声等手段实施的违法犯罪行为。 文章来源于大湾区之声,如有侵权请联系删除。本文仅代表作者观点,不代表大湾网的观点立场。 |