近年来,随着人脸识别技术的广泛应用和人工智能技术的进步,一些不法分子开始利用AI技术融合他人面孔和声音、制造逼真的合成图像来实施新型网络诈骗,类似骗局手段多样、门槛低、辨别难度大,经常让人防不胜防,短时间内造成较大损失。从形象到声音,如何警惕AI“深度造假”? 公司老板遭遇AI换脸诈骗 今年5月8日,内蒙古包头市公安局电信网络犯罪侦查局发布了一起使用智能AI技术进行电信诈骗的案件,4月20日,福建省福州市某科技公司法人代表郭先生的“好友”突然通过微信视频联系他,声称自己的朋友在外地投标,需要430万元保证金,且需要公对公账户过账,所以想要借用郭先生公司的账户走账。
民警提示,以上两种诈骗方式都受限于样本数量,所以可以通过延长通话时间、多次进行提问的方式让对方多说话,露出破绽。 民警进一步强调,要想从源头上预防此类诈骗案件的发生,保护好个人信息是关键: 不要随意接听陌生电话,防止诈骗人员以电销推广等借口采集发音、语句;避免在个人互联网社交账户上过多暴露个人照片、声音、视频等信息; 对外提供人脸照片时需谨慎对待; 使用小众软件进行身份认证、网络贷款实名放贷时需提高警惕; 不要随意点击陌生链接,链接中的木马程序会窃取用户手机内的照片、监听回传通话内容; 开启定位服务、输入身份证号、录入人脸识别信息、指纹识别信息等个人生物信息时,一定要慎之又慎。 此外,民警表示,各APP网络服务提供者在收集、使用个人信息时应遵循合法、正当、必要、公开的原则,不得收集与其提供的服务无关的个人信息,应当采取技术措施和其他必要措施,确保其收集的个人信息安全,不得主动向外提供,也要防止信息泄露、毁损、丢失。 如何实现安全和便捷兼备的AI验证模式?对此,赵精武认为,二者的平衡有探讨的空间。“需要结合AI技术的发展动向进行同步调整,也需要服务提供者在相关深度合成产品和服务中增加‘AI生成’的标识机制,降低第三方识别AI生成内容的难度。” 文章来源于中央广电总台中国之声,如有侵权请联系删除。本文仅代表作者观点,不代表大湾网的观点立场。 |