导语:人工智能系统的声音听起来像总统,也许听起来像你我。那么人工智能(AI)语音克隆软件到底会带来怎样的网络安全风险呢?
人工智能是一项功能强大的技术,有望彻底改变我们生活。这一点从来没有像今天这样昭然若揭;只要能连接互联网,谁都可以享用功能强大的工具。
这些工具包括人工智能语音生成器,这种先进的软件能够惟妙惟肖地模仿人类语音,以至于无法区分和辨别两者。这对网络安全又意味着什么呢?
人工智能语音生成器是如何工作的?
语音合成指人工生成人类语音的过程,它已存在了几十年。就像所有技术一样,多年来它已经历了重大而深刻的变化。
用过Windows 2000和XP的用户可能还记得微软Sam,这是微软操作系统默认的文本转换成语音男声。微软Sam的表现可谓中规中矩,但它发出的声音很机械、很僵硬、很造作。我们现在手头拥有的工具要先进得多,这在很大程度上归功于深度学习。
深度学习是一种基于人工神经网络的机器学习方法。由于这些神经网络,现代人工智能处理数据的能力几乎如同人类大脑中的神经元解释信息一样强大。也就是说,人工智能变得越像人类,模仿人类行为的本领就越高超。
简而言之,这就是现代人工智能语音生成器的工作方式。它们接触的语音数据越多,就越擅长模仿人类语音。由于这项技术最新取得的进展,最先进的文本转换成语音软件基本上可以复制馈送给它的声音。
威胁分子如何使用人工智能语音生成器?
不出所料,这种技术正被威胁分子滥用。不仅是典型意义上的网络犯罪分子,还有虚假信息代理人、骗子、黑帽营销人员和网络喷子。
就在ElevenLabs于2023年1月发布其文本转换成语音软件的测试版的那一刻,留言板4chan上的极右翼网络喷子就开始滥用它。他们使用这种先进的人工智能技术,复制了BBC电视台主持人David Attenborough和知名演员Emma Watson等名人的声音,让人感觉这些名人好像在发表恶毒、仇恨的长篇大论。
正如IT外媒Vice当时所报道,ElevenLabs承认有人在滥用其软件,尤其是在滥用语音克隆功能。这项功能让任何人都可以“克隆”另一个人的声音;你只需要上传一分钟时长的录音,然后让人工智能做剩余的事情。据推测,录音时间越长,输出结果就越逼真。
2023年3月,一段在TikTok上疯传的视频引起了《纽约时报》杂志的注意。在这段视频中,著名的播客主持人Joe Rogan和经常现身其The Joe Rogan Experience节目的Andrew Huberman博士讨论了一种“增强性欲”的咖啡因饮料。这段视频让人觉得Rogan和Huberman都明确力挺这款产品。而实际上,他们俩的声音是用人工智能克隆出来的。
大约在同一时间,总部位于加利福尼亚州圣克拉拉的硅谷银行因风险管理错误及其他问题而倒闭,并被州政府接管。这是自2008年金融危机以来美国最严重的银行倒闭事件,因此在全球市场引起了轩然大波。
让人们更加恐慌的是美国拜登总统的一段假录音。在录音中,可以明显听到拜登警告即将到来的“崩溃”,并指令美国政府“充分利用媒体的力量来安抚公众”。像PolitiFact这样追求事实真相的网站很快就揭穿了这段视频,但至此可能已经有数百万人听过了这段录音。
如果人工智能语音生成器可以用来冒充名人,那么它们也可以用来冒充平民百姓,这正是网络犯罪分子一直在从事的勾当。据IT外媒ZDNet报道,每年都有成千上万的美国人上语音钓鱼(vishing)骗局的当。2023年,一对年迈的夫妇因接到“孙子”打来的电话而登上了全国报章头条,“孙子”声称关在监狱里,向他们要钱。
如果你曾经上传过YouTube视频(或在YouTube视频中出现过)、与一群不认识的人一起参加过大型群体电话会议,或者以某种方式将自己的声音上传到互联网上,理论上来说你或亲朋好友可能处于危险之中。怎样才能阻止骗子把你的声音上传到人工智能生成器、克隆声音、然后冒充你联系你的家人?
人工智能音生成器在颠覆网络安全格局
不是说非得是网络安全专家才能意识到人工智能落入坏人之手有多危险。虽然所有技术都是如此,但人工智能是一种独特的威胁,这有几个原因。
首先,它是一项比较新的技术,这意味着我们其实不知道它能为我们带来什么。现代人工智能工具让网络犯罪分子能够以前所未有的方式扩大活动规模,并实现自动化操作,同时充分利用公众对这一问题相对无知来大做文章。此外,生成式人工智能使缺乏知识和技能的威胁分子也能够创建恶意代码、构建欺骗网站、传播垃圾邮件、撰写钓鱼邮件、生成逼真的图像,并生成长篇的虚假音频和视频内容。
至关重要的是,我们反过来也可以利用人工智能:人工智能也被用于保护系统,而且可能在未来几十年都是如此。可以料想,网络犯罪分子和网络安全行业之间会上演某种人工智能军备竞赛,因为这些工具的防御和进攻能力本质上不相上下。
对于普通人来说,生成式人工智能的遍地开花需要彻底重新思考安全实践。尽管人工智能可能令人兴奋、很实用,但它至少可以以假乱真,最坏的情况是加剧现有的安全问题,并为威胁分子提供新的舞台。
语音生成器展示了人工智能的破坏性潜力
ChatGPT一经上市,有关监管人工智能的讨论就开始升温。任何试图遏制这种技术的做法都可能需要国际合作,需要我们在过去几十年来从未见过的合作程度,因此不太可能遏制人工智能。
精灵已从瓶子里跑出来,我们能做的也就是习惯它适应它,但愿网络安全行业能做出相应的调整。
本文翻译自:https://www.makeuseof.com/ai-voice-generators-security-threat/如若转载,请注明原文地址