OpenAI的语音引擎可以克隆语音这并不意味着它应该这样做- 彭博社
Parmy Olson
听到了吗?
摄影师:PAU BARRENA/AFPOpenAI的最新工具非常敏感和有争议,以至于公司还没有发布它。被称为Voice Engine,这是一个“生成听起来非常像原始说话者的自然语音”的系统,只需他们的声音样本15秒。
这样的技术并不新鲜。像Eleven Labs和HeyGen这样的初创公司也可以用少量音频样本克隆声音。但OpenAI已经证明它可以推出比现有竞争对手更好的产品。即便如此,这是OpenAI本应完全避开的领域。问题不在于技术,而在于OpenAI坚持让AI进入尽可能多人手中。
Bloomberg观点现在拜登必须向内塔尼亚胡表明,已经够了世界上最大的NIMBY在600亿美元项目上受挫AI威胁要在经济革命中取代马尼拉中国经济需要的是战略,而不是噱头公司表示,一旦进行了小规模测试并评估了“关于社会如何适应”的“对话”的结果,它将决定是否“大规模”部署Voice Engine。克隆声音存在明显风险,OpenAI指出在大选年风险更高,但公司的目标也是“了解技术前沿并公开分享AI正在变得可能的内容”。请记住,OpenAI不再是一个非营利组织,而是一家有义务保持其AI领先地位的企业。
不要惊讶,如果OpenAI最终在今年晚些时候发布Voice Engine。该公司在2019年2月部分发布GPT-2时也发出了类似谨慎的声音,当时担心垃圾邮件发送者会利用它。九个月后,它发布了完整的模型,称其“目前没有强有力的滥用证据”。但它的激励也发生了变化。在同一时间段内,OpenAI 成为了一家盈利公司,并且接受了微软公司10亿美元的投资。
OpenAI真的很谨慎,还是将谨慎用作公关手段?该公司表明的使命是为人类提供“有益的人工智能”,因此其关于Voice Engine的博客文章自然展示了其公共利益的例子,包括该工具如何为无法言语的患者和残疾人提供语音。
虽然这些是崇高的目标,但辅助功能也长期被用来赋予新技术一种仁慈的外观。文本转语音软件最初被营销为帮助盲人的工具,但后来被用于推动像Siri、Google助手和GPS导航系统等主流应用。埃隆·马斯克推崇他的Neuralink芯片将帮助那些瘫痪的人,但他的长期目标也是将其植入数十亿人类大脑中。
事实上,人工智能威胁着使残疾人生活更加困难。用于筛选求职者的AI工具无意中排除了残疾人,而2023年ProPublica的调查发现,保险巨头Cigna使用了一种算法,允许医生大规模拒绝残疾人的索赔。Cigna称ProPublica的报道“偏见且不完整”。
OpenAI对这项技术的监管建议并没有激发信心。它建议创建一个“禁止名单”来阻止声音听起来太像“知名人物”。但声音克隆的有害副作用将更多地影响普通人而不是名人。由于生成AI技术的进步,过去一年中泛滥的深度伪造色情视频绝大多数并没有影响到知名人士,而是普通年轻女性。
验证和认证原始发言者——正如OpenAI打算做的那样——也并不总是有效。HeyGen是一个AI语音克隆工具,OpenAI正在与其合作开发Voice Engine,最近被用来克隆一位乌克兰YouTube网红的声音,而她并不知情也没有同意,她告诉我。Olga Loiek在一个中国社交媒体应用上发现了HeyGen水印,其中有数百个视频使用了她的身体和声音。HeyGen在其网站上表示需要得到一个人的同意才能使用他们的声音。“很明显这一部分没有起作用,”Loiek说。
值得注意的是,OpenAI提供的Voice Engine的几个好处的例子——比如给无法言语的人一个声音——并不需要克隆一个声音。它们只需要能够生成合成声音的软件。复制人类语音会带来一系列风险,根本不值得。它不仅为欺诈者、网络喷子和其他散布错误信息的人提供了工具,还很可能给娱乐业和好莱坞本身带来麻烦,OpenAI在那里一直在招待高管,展示其视频生成工具Sora。语音克隆技术威胁到演员们的生计,正如一位英国女演员上周展示的那样,当她发布一封拒绝邮件说她被“AI生成的声音”取代了。
也许OpenAI需要提醒一下那句老话,仅仅因为你能够做某事,并不意味着你应该这样做。该公司发现自己被其发布ChatGPT引发的竞赛所带动,现在正面临着保持领先地位的压力,通过发布更好的竞争工具版本并吸引更多人使用其人工智能。这也是为什么它最近取消了登录ChatGPT的要求。
OpenAI 仍然坚持其使命是为人类创造人工智能,但声音克隆可能带来的危害远远大于优势。该公司在商业竞争中表现不俗,但人类如何受益看起来越来越不明确。
更多来自彭博观点:
想要更多彭博观点吗? OPIN <GO>****。或者您可以订阅 我们的每日新闻简报**。**