科技巨头豪掷数十亿美元投资AI,但炒作常与现实不符——《华尔街日报》
Karen Hao and Miles Kruppa
经过多年企业对于人工智能潜力的强调,研究人员表示现在需要重新调整预期。
随着技术的近期突破,企业已开发出更多系统,能够生成看似类人的对话、诗歌和图像。然而人工智能伦理学家和研究人员警告,部分企业正在夸大其能力——他们认为这种炒作正在酿成广泛误解,并扭曲政策制定者对该技术威力和缺陷的认知。
“我们正失去平衡,“西雅图非营利研究机构艾伦人工智能研究所首席执行官奥伦·埃齐奥尼表示。
他与其他研究人员指出,这种失衡解释了为何本月早些时候,当谷歌母公司Alphabet的一名工程师基于宗教信仰声称该公司某人工智能系统应被视为有知觉时,许多人会被其说辞左右。
该工程师称聊天机器人已实质上成为人类,有权对其实验征得同意。谷歌暂停其职务并驳斥该主张,表示公司伦理学家和技术专家已评估过这种可能性并予以否定。
研究人员表示,认为人工智能正在或终将具备意识的观点,在更广泛科学界仍属边缘认知。
现实中,人工智能包含的一系列技术主要仍服务于各类非银幕化的后台运作,例如通过处理用户数据来更精准投放广告、内容及产品推荐。
过去十年间,谷歌、Facebook母公司Meta Platforms Inc.和亚马逊公司(Amazon.com Inc.)等企业投入巨资推进此类能力,为它们的增长和盈利引擎提供动力。
例如,谷歌利用人工智能更好地解析复杂的搜索提示,帮助其提供相关广告和网络结果。
一些初创公司也如雨后春笋般涌现,怀揣更宏大的抱负。其中一家名为OpenAI的公司从特斯拉(Tesla Inc.)首席执行官埃隆·马斯克(Elon Musk)和微软(Microsoft Corp.)等捐赠者和投资者那里筹集了数十亿美元,试图实现所谓的人工通用智能,即一个能够匹配或超越人类智能各个维度的系统。一些研究人员认为,即使不是无法实现,这也需要几十年的时间。
这些公司之间为超越彼此而展开的竞争推动了人工智能的快速发展,并催生了越来越引人注目的演示,这些演示抓住了公众的想象力,并引起了人们对这项技术的关注。
玛格丽特·米切尔(Margaret Mitchell)在撰写了一篇批评性论文后被解除了谷歌伦理人工智能团队联合负责人的职务;谷歌表示,这是因为她与外部人士分享了内部文件。图片来源:Chona Kasinger/Bloomberg NewsOpenAI的DALL-E是一个可以根据用户提示生成艺术作品的系统,比如“麦当劳在土星轨道上”或“穿着运动装备的熊参加铁人三项”,最近几周在社交媒体上催生了许多表情包。
谷歌随后也发布了基于文本的艺术生成系统。
尽管这些输出结果可能令人惊叹,但越来越多的专家警告称,企业并未充分抑制这种热潮。
玛格丽特·米切尔曾共同领导谷歌的伦理人工智能团队,在她撰写了一篇批评其系统的论文后被公司解雇。她表示,这家搜索巨头向股东推销的部分内容是,它是全球人工智能领域的佼佼者。
米切尔女士现在任职于一家名为Hugging Face的人工智能初创公司,而谷歌伦理人工智能团队的另一位共同领导者蒂姆尼特·格布鲁也被迫离职,他们是最早警告这项技术危险的人士之一。
他们在公司撰写的最后一篇论文中提出,这些技术有时会造成伤害,因为它们类似人类的能力意味着它们具有与人类相同的失败可能性。其中引用的例子包括:Facebook的人工智能系统将阿拉伯语的“早上好”错误翻译为英语的“伤害他们”和希伯来语的“攻击他们”,导致以色列警方逮捕了发布问候语的巴勒斯坦男子,之后才意识到他们的错误。
蒂姆尼特·格布鲁是一位著名的人工智能伦理学家,也是谷歌伦理人工智能团队的另一位共同领导者,同样被迫离职。图片来源:Jeff Chiu/美联社《华尔街日报》去年发布的"Facebook文件"系列报道中审查的内部文件还显示,Facebook的系统无法持续识别第一人称射击视频和种族主义言论,仅删除了少量违反公司规定的内容。
Facebook表示,其人工智能的改进已大幅减少了仇恨言论和其他违规内容的数量。
谷歌称解雇了米切尔女士,原因是她与公司外部人员分享了内部文件。该公司人工智能负责人告诉员工,格布鲁的工作不够严谨。
这些解雇事件在科技行业引起强烈反响,数千名谷歌内外人士联名谴责他们所称的"前所未有的研究审查”。首席执行官桑达尔·皮查伊表示将努力在这些问题上重建信任,并承诺将研究人工智能伦理的人数增加一倍。
认知与现实之间的差距并不新鲜。埃齐奥尼等人指出,围绕IBM公司人工智能系统沃森的营销宣传——该系统在智力竞赛节目《危险边缘》中击败人类后广为人知。经过十年和数十亿美元的投资后,该公司去年表示正在探索出售沃森健康部门,该部门的招牌产品本应帮助医生诊断和治疗癌症。
由于人工智能现已无处不在,涉及更多公司的软件——电子邮件、搜索引擎、新闻推送、语音助手——渗透到我们的数字生活中,风险只会更高。
在其工程师近期发表声明后,谷歌反驳了其聊天机器人具备感知能力的说法。
谷歌发言人布莱恩·加布里埃尔表示,该公司的聊天机器人和其他对话工具"可以即兴谈论任何奇幻话题”,“如果你问当一只冰淇淋恐龙是什么感觉,它们能生成关于融化、咆哮等场景的文字”。他补充说,这与感知能力不同。
目前已被停职的工程师布莱克·勒莫因在采访中称,他通过名为LaMDA的聊天机器人进行对照实验,整理了数百页对话记录来支持研究,并准确呈现了谷歌程序的内部运作机制。
谷歌暂停了工程师布莱克·勒莫因的职务,并驳斥其关于某人工智能系统应被视为具备感知能力的说法。图片来源:Martin Klimek/The Washington Post/Getty Images勒莫因表示:“这并非夸大系统本质,我正尽可能谨慎精确地说明哪些方面存在不确定性,哪些方面确凿无疑。”
自称融合基督教与冥想等灵修实践的神秘主义者勒莫因声称,他以宗教身份将LaMDA描述为具有感知能力。
研究人工智能政策的布朗大学计算机科学博士生伊丽莎白·库马尔指出,这种认知偏差已渗入政策文件。近期地方、联邦及国际法规和监管提案试图解决AI系统可能存在的歧视、操纵等危害,这些预设都基于系统高度智能的前提。她表示,这些政策大多忽略了AI系统单纯故障造成危害的可能性,而后者发生概率更高。
埃齐奥尼先生,同时也是拜登政府国家人工智能研究资源工作组的成员,表示政策制定者常常难以理解这些问题。“我可以告诉你,从我与他们中一些人的交谈来看,他们意图良好,提出的问题也不错,但他们的了解并不十分深入,“他说。
联系 Karen Hao,邮箱:[email protected] 和 Miles Kruppa,邮箱:[email protected]
刊登于2022年6月30日的印刷版,标题为《人工智能的泡沫与现实不符》。