谷歌如何对AI变得谨慎并给微软创造了机会 - 《华尔街日报》
Miles Kruppa and Sam Schechner
两年多前,谷歌的两位研究员开始推动公司发布一款基于当时最先进技术打造的聊天机器人。他们开发的对话程序不仅能自信地探讨哲学、闲聊最爱的电视剧,还能即兴编造关于牛马的双关笑话。
据知情人士透露,研究员丹尼尔·德弗雷塔斯和诺姆·沙泽尔向同事表示,像他们这种由人工智能最新进展驱动的聊天机器人,将彻底改变人们搜索网络和与计算机交互的方式。
他们敦促谷歌向外部研究人员开放该聊天机器人,试图将其整合到Google Assistant虚拟助手中,后来还要求谷歌进行公开演示。
知情人士称,谷歌高管多次回绝了他们的提议,至少有一次表示该程序不符合公司对AI系统安全性和公平性的标准。二人于2021年离职创办自己的公司开发类似技术,并向同事表示对无法将AI工具公之于众感到沮丧。
如今,这家曾引领人工智能现代时代的公司发现,其对该技术的谨慎态度正受到最老牌竞争对手之一的挑战**。**上月,微软公司宣布计划将病毒式传播的ChatGPT背后的技术注入必应搜索引擎。这款由埃隆·马斯克联合创立的七年初创公司OpenAI开发的聊天机器人,凭借类人的对话能力惊艳全球,其技术基础正是源自谷歌早期的AI突破。
在ChatGPT问世数月后,谷歌正采取措施公开推出其自主研发的聊天机器人,该技术部分源自德弗雷塔斯和沙泽尔的研究成果。这款名为Bard的聊天机器人通过抓取网络信息,以对话形式回答问题。谷歌于2月6日宣布正在内部和外部测试Bard,计划未来几周广泛发布,并表示拟将类似技术整合至部分搜索结果中。
谷歌相对谨慎的态度源于其人工智能项目多年来的争议——从关于算法偏见与准确性的内部争论,到去年公开解雇声称其系统已具备感知能力的员工。
据现任及离职员工等知情人士透露,这些事件令高管们警惕公开AI产品演示可能对其声誉造成的风险,以及对其母公司Alphabet去年近2830亿美元收入主要来源的搜索广告业务的影响。
“谷歌正艰难地在冒险程度与保持全球思想领导力之间寻找平衡,“2020年前负责该公司聊天机器人项目的谷歌前产品经理高拉夫·内马德表示。
德弗雷塔斯和沙泽尔通过外部代表拒绝了采访请求。
谷歌发言人表示,他们的研究当时颇具价值,但研究原型与可供日常安全使用的可靠产品存在巨大差距。公司补充称,在发布AI技术时必须比小型初创企业更审慎。
谷歌的做法可能被证明是审慎的。微软在2月份表示,将在用户报告不准确答案后对其聊天机器人设置新的限制,有时在将应用程序推向极限时会出现失控的回应。
Alphabet公司及其子公司谷歌的首席执行官桑达尔·皮查伊告诉员工,公司一些最成功的产品是随着时间的推移赢得了用户的信任。照片:凯尔·格里洛特/彭博新闻在上个月给谷歌员工的一封电子邮件中,谷歌和Alphabet的首席执行官桑达尔·皮查伊表示,公司一些最成功的产品并非最先进入市场,而是随着时间的推移赢得了用户的信任。
“这对每个人来说都将是一段漫长的旅程,整个领域都是如此,”皮查伊写道。“我们现在能做的最重要的事情是专注于打造一个伟大的产品,并负责任地开发它。”
谷歌的聊天机器人努力可以追溯到2013年,当时谷歌联合创始人拉里·佩奇,时任首席执行官,聘请了雷·库兹韦尔,这位计算机科学家帮助普及了机器有一天会超越人类智能的想法,这一概念被称为“技术奇点”。
库兹韦尔开始开发多个聊天机器人,包括一个基于他当时正在创作的小说命名的丹妮尔,他后来表示。库兹韦尔通过库兹韦尔技术公司(他在加入谷歌之前创办的一家软件公司)的女发言人拒绝了采访请求。
谷歌还收购了英国人工智能公司DeepMind,该公司有着相似的使命,即创造人工通用智能,或者说能够模拟人类心智能力的软件。
与此同时,学术界和技术专家对人工智能的担忧日益加剧——例如其通过面部识别软件实现大规模监控的潜力——并施压谷歌等公司承诺不追求该技术的某些用途。
部分出于对谷歌在该领域日益增长的地位的回应,包括马斯克在内的一群科技企业家和投资者于2015年成立了OpenAI。最初以非营利组织的形式构建,OpenAI表示希望确保人工智能不会沦为商业利益的牺牲品,而是被用于造福人类。(马斯克于2018年离开OpenAI董事会。)
谷歌最终在2018年承诺不在军事武器中使用其人工智能技术,此前员工强烈反对公司参与美国国防部一个名为“马文计划”的合同,该合同涉及使用人工智能自动识别和跟踪潜在无人机目标,如汽车。谷歌放弃了该项目。
皮查伊还宣布了一套七项人工智能原则来指导公司的工作,旨在限制不公平偏见技术的传播**,**例如人工智能工具应对人负责,并“为安全而构建和测试”。
诺姆·沙泽尔和丹尼尔·德弗雷塔斯在他们位于帕洛阿尔托的新公司办公室。摄影:《华盛顿邮报》/盖蒂图片社 温妮·温特迈尔大约那时,在谷歌YouTube视频平台工作的巴西裔工程师德弗雷塔斯先生启动了一个人工智能副项目。
童年时,德弗雷塔斯先生就梦想研究能生成逼真对话的计算机系统,他的研究伙伴沙泽尔先生在一月上传至YouTube的视频采访中说道。在谷歌,德弗雷塔斯先生着手开发了一个聊天机器人,其模仿人类对话的能力比以往任何尝试都更接近真实。
多年来,这个最初名为Meena的项目一直处于保密状态,德弗雷塔斯先生和其他谷歌研究人员不断优化其应答。公司内部,一些员工担忧此类程序的风险——2016年微软被迫终止发布名为Tay的聊天机器人,因用户诱导其作出支持阿道夫·希特勒等不当回应。
2020年,外界首次通过谷歌研究论文窥见Meena,该论文称该聊天机器人已学习公共领域社交媒体对话中的400亿个单词。
OpenAI基于800万个网页开发了类似模型GPT-2。虽然向研究人员发布了版本,但最初未公开程序,称担心其可能被用于生成大量欺骗性、偏见性或侮辱性语言。
在谷歌,负责Meena的团队也曾希望发布他们的工具,即使像OpenAI那样仅以有限形式推出。前谷歌产品经理内马德表示,公司领导层以该聊天机器人不符合谷歌关于安全与公平的人工智能原则为由,拒绝了这一提议。
谷歌发言人回应称,该聊天机器人历经多次审查,多年来因各种原因被限制广泛发布。
团队继续改进聊天机器人技术。谷歌大脑AI研究部门资深软件工程师沙泽尔加入项目后,将其更名为LaMDA(对话应用语言模型)。他们为其注入了更多数据和算力。沙泽尔曾参与开发Transformer模型——这种广受赞誉的新型AI架构极大简化了ChatGPT等强大程序的开发流程。
然而这项技术很快引发公开争议。谷歌知名AI伦理研究员格布鲁2020年底声称,她因拒绝撤回关于LaMDA类程序固有风险的研究论文,并向同事群发投诉邮件遭解雇。谷歌否认解雇说法,指其研究缺乏严谨性。
2021年谷歌虚拟大会上与LaMDA的对话示例。图片来源:Daniel Acker/彭博新闻社谷歌研究主管杰夫·迪恩竭力表明公司仍在致力于负责任的AI开发。2021年5月,该公司承诺将AI伦理团队规模扩大一倍。
在作出承诺一周后,皮查伊在公司年度旗舰大会上登台,展示了两段与LaMDA的预录对话——这个AI能根据指令回答问题,仿佛自己是矮行星冥王星或纸飞机。
知情人士透露,谷歌研究人员在大会前几天准备了这些示例,此前皮查伊临时要求进行演示。公司强调其努力使聊天机器人更准确,并减少被滥用的可能性。
“开发LaMDA这类技术时,我们的首要任务是确保将此类风险最小化,“两位谷歌副总裁在当时的一篇博客文章中表示。
被谷歌解雇的工程师布莱克·勒莫因表示,公司曾考虑在2022年5月的旗舰大会上发布LaMDA版本。这位工程师因公开与聊天机器人的对话并声称其具有感知能力而被解雇。他说,当勒莫因的结论开始在公司内部引发争议后,谷歌决定不发布该产品。谷歌表示勒莫因的担忧缺乏依据,其公开披露行为违反了雇佣和数据安全政策。
知情人士称,早在2020年,德弗雷塔斯和沙泽尔就尝试将LaMDA整合到Google Assistant中。这款软件应用四年前首次亮相于Pixel智能手机和家用音箱系统,每月有5亿多用户用它完成查看天气、安排约会等基础任务。
据知情人士透露,负责Assistant项目的团队开始使用LaMDA进行回答用户问题的实验。但这些人表示,谷歌高管并未将这款聊天机器人作为公开演示版发布。
知情人士称,谷歌不愿向公众发布LaMDA的态度让德弗雷塔斯和沙泽尔感到沮丧,他们随后采取行动离开公司,开始利用类似技术创办初创企业。
知情人士表示,皮查伊亲自介入,要求两人留下继续开发LaMDA,但并未承诺向公众发布该聊天机器人。德弗雷塔斯和沙泽尔于2021年底离开谷歌,并于同年11月成立了他们的新初创公司Character Technologies Inc.。
Character去年发布的软件允许用户创建聊天机器人并与之互动,这些聊天机器人可以扮演苏格拉底等知名人物或心理学家等典型角色。
“这在谷歌内部引起了一些轰动,“沙泽尔在YouTube上传的采访中表示,但没有详细说明,“但最终我们决定,作为初创公司发布产品可能会更顺利。”
自微软与OpenAI达成新协议以来,谷歌一直在努力重新确立其作为人工智能创新者的身份。
谷歌在2月份宣布推出Bard,就在微软举办活动介绍必应整合OpenAI技术的前夕。两天后,在巴黎的一个活动上(谷歌称该活动原计划讨论更多区域性搜索功能),该公司向媒体和公众再次展示了Bard,以及一个使用类似LaMDA的AI技术生成搜索查询文本响应的搜索工具。
谷歌表示,公司会经常评估产品发布条件,由于市场期待值高涨,即使巴德尚未完善,仍决定先向测试者开放。
微软公司首席执行官萨提亚·纳德拉上月在该公司位于华盛顿州雷德蒙德的总部活动上发表讲话。图片来源:Chona Kasinger/Bloomberg News
微软员工亚历山大·坎贝尔演示必应搜索引擎与Edge浏览器接入OpenAI的功能。图片来源:Stephen Brashear/Associated Press谷歌搜索业务副总裁伊丽莎白·里德在接受采访时透露,自去年初以来,公司内部已展示过整合LaMDA等生成式AI工具回复的搜索产品。
该公司认为生成式AI在搜索领域最具价值的应用场景,是处理没有唯一正确答案的特定类型问题(谷歌称之为NORA问题),这类情况下传统的蓝色谷歌链接可能无法满足用户需求。里德表示,公司还看好该技术在解决数学题等其他复杂查询中的潜力。
高管们坦言,与许多类似程序一样,准确性仍是待解难题。这类模型在信息不足时倾向于编造答案,研究者称之为"幻觉”。据体验者反映,基于LaMDA技术构建的工具有时会推荐虚构餐厅或给出答非所问的回复。
微软上个月将新版必应称为一项进行中的工作,此前有用户报告称与集成在搜索引擎中的聊天机器人进行了令人不安的对话**,**并引入了诸如限制聊天长度等变更,旨在减少机器人发出攻击性或诡异回应的可能性。谷歌和微软二月份展示的聊天机器人都存在程序生成的事实性错误。
“这有点像和小孩子说话,“里德女士在谈到LaMDA等语言模型时表示,“如果孩子觉得必须给你一个答案却没有答案时,就会编造一个听起来合理的答案。”
谷歌持续优化其模型,包括训练它们在不知道答案时承认无知而非编造答案,里德女士说。该公司补充称,多年来已提升了LaMDA在安全性和准确性等指标上的表现。
整合LaMDA这类能将数百万网站内容合成一段文字的程序,可能通过分流网站访问量而恶化谷歌与主要新闻机构及其他在线出版商长期存在的矛盾。据知情人士透露,谷歌内部表示必须在搜索结果中部署生成式AI时兼顾网站所有者利益,部分措施包括保留来源链接。
“我们非常谨慎地处理了生态系统关切,“负责搜索引擎的谷歌高级副总裁普拉巴卡尔·拉加万在二月的活动中表示,“这是我们打算持续重点关注的议题。”
莎拉·克劳斯 对本文亦有贡献。
联系迈尔斯·克鲁帕,邮箱:[email protected];联系山姆·谢克纳,邮箱:[email protected]
刊登于2023年3月8日印刷版,标题为《谷歌在AI上的谨慎如何给了微软可乘之机》。