AI换脸诈骗 对越来越多人下手了! 日前 发布了 AI换脸有多真? 这个视频 细思极恐! AI换脸 到底怎么以假乱真的? 看看这些测试视频 连动作,神态都那么自然...... △卖家展示的换脸软件效果(S为原视频,D为更换之后) △换脸软件卖家展示的局部五官更换 有装成你的好友 10分钟骗走430万的 今年4月,福州市某科技公司法人代表郭先生10分钟内被骗430万元。 案发时,他的好友通过微信视频联系他,称自己的朋友在外地竞标,需要430万元保证金,想借用郭先生公司的账户走账。基于对好友的信任,加上已经视频聊天“核实”了身份,郭先生在10分钟内,先后分两笔把430万元转到了对方的银行账户上。事后,郭先生拨打好友电话才得知被骗。 有装成你的领导诈骗的 此前,据媒体报道,上海某公司高管,被AI换脸的“公司领导”诈骗损失150万元。 还有装成你的亲戚、熟人 一开口就有事相求的 不仅在国内 在国外AI“换脸” 同样引发热议 近日,一段美国歌手泰勒·斯威夫特“说”中文的短视频在网络刷屏,引发热议。 视频中,泰勒·斯威夫特“说”着流利中文,音色和讲母语时的音色类似,甚至连口型都能对上。 类似的视频还有很多外国人“说”地道中文、很多中国艺人“说”起流利的英文……不少网友感叹,“嘴型、手势都对得上,太自然了,差点儿以为是真的。”“除了嘴形,还有身体动作和语速的配合。” 其实 这些视频有一个共同点 都是由AI(人工智能)生成的 AI“翻译”以假乱真 编辑试用了一款AI人像视频工具,只需上传视频,选择语言,就能生成自动翻译、音色调整、嘴型匹配的新视频。 △一款AI人像视频工具HeyGen的视频翻译功能。图源:截自HeyGen 对比原片,AI“翻译”后重新配音的新视频不仅进行了较准确翻译,而且连声线和情绪都近乎拟真,嘴型很贴合,难辨真假。 对此,有网友表示,这种技术看起来很炫酷,应用场景很广泛,未来可能会越来越成熟,比如翻译配音会更自然、传神。 但也有网友表示担忧,“这会不会被用来模仿声音进行诈骗?”“再加上换脸,以后网上啥都不能信了。”“以后视频造假会越来越容易。” 还有网友表示,“希望AI技术发展能被控制在正轨,技术滥用,就是灾难。” AI技术是把“双刃剑” 近年来,AI技术被广泛应用于短视频的二次创作,比如AI换脸及换声等。可以说,AI技术是把“双刃剑”。 一方面,AI换脸及换声技术对于工作效率的提高具有非常强的作用。清华大学新闻与传播学院教授司若举例说,AI换脸及换声技术让已故的演员、历史人物可以通过换脸技术重现在屏幕上,在不同国家的语言转译上也可以通过AI的换声技术进行实时转译。 另一方面,近年来,有不法分子为了牟利,利用AI技术进行诈骗。比如利用AI换脸冒充熟人诈骗,甚至将“魔爪”伸向儿童,或者制作发布假新闻混淆视听、赚取流量等。 △一位博主讲述人贩子利用AI“换脸”把孩子拐走的案例,与孩子视频的所谓“妈妈”是AI合成的。来源:贾姨儿童安全 此外,AI换脸、AI换声还存在法律风险。近期,不少相声演员“说”英文相声、小品演员“演”英文小品的视频在网络上传播。对此,北京岳成律师事务所高级合伙人岳屾山律师表示,用AI技术为他人更换声音、做“翻译”并发布视频,可能涉嫌侵权,主要有三个方面:
岳屾山律师强调,技术滥用,可能会侵犯他人权益,“AI技术本身不是问题,关键是我们要怎么用它。” 如何对AI技术加强监管? AI技术发展,需要多层面约束规范——
保护信息,杜绝泄露 多重核验,确认身份 谨慎转账,提高警惕 转发提醒家里亲友 文章来源于平顶山市卫东公安分局,如有侵权请联系删除。本文仅代表作者观点,不代表大湾网的观点立场。 |