《华尔街日报》:人工智能热潮或将使谷歌和微软更加强大
Christopher Mims
看到微软和谷歌在过去一周的竞相公告中大力宣传的新型人工智能聊天机器人,让人深刻体会到两大要点。首先是一种"哇,这确实可能改变一切"的感觉。其次则是意识到,要让基于聊天的搜索及相关AI技术产生影响力,我们必须对其及其背后的公司投以极大的信任。
当人工智能直接提供答案,而不仅是我们决策依据的信息时,我们需要对它建立前所未有的深度信任。新一代聊天式搜索引擎更应被称为"答案引擎"——它们能通过提供所汇总网页的链接来"展示工作过程"。但要让答案引擎真正实用,大多数时候我们必须充分信任它,愿意直接采信其给出的表面答案。
同样的情况也适用于那些帮助生成文本、电子表格、代码、图像及设备上其他创作内容的工具——微软和谷歌都已承诺在其现有生产力服务(Microsoft 365和Google Workspace)中提供某种版本。
这些技术及聊天式搜索都基于最新一代"生成式"AI,不仅能像传统AI那样处理内容,更能创造语言和视觉内容。而所需的额外信任,正是这种新型生成式AI技术将更多权力集中到科技巨头手中的多种方式之一。
各种形式的生成式人工智能将比现有技术更深地渗透到我们的生活和工作方式中——不仅能回答我们的问题,还能撰写备忘录、演讲稿,甚至创作诗歌和艺术作品。由于开发和运行这项技术所需的资金、智力和计算资源极其庞大,掌控这些AI系统的公司将成为规模最大、财力最雄厚的企业。
当前引发热议的ChatGPT聊天机器人和DALL-E 2图像生成器的创造者OpenAI,曾看似是个例外:这家相对较小的初创公司推动了重大AI创新。但它已投入微软的怀抱,后者进行了多轮投资,部分原因正是需要支付支撑其系统运转所需的巨额算力成本。
权力更趋集中的现象尤为重要,因为这项技术既强大得惊人,又存在固有缺陷:它往往会自信地提供错误信息。这意味着该技术主流化的第一步是构建系统,第二步则是尽量减少其不可避免的各类错误数量。
换言之,对AI的信任将成为科技巨头们誓死捍卫的新护城河。若屡失用户信任,他们可能彻底抛弃你的产品。例如:去年11月,Meta向公众开放了名为Galactica的科研知识AI聊天搜索引擎。或许部分由于该引擎的目标用户是科学家群体,其偶尔提供的错误答案引发了尖锐批评,导致Meta在短短三天后就关闭了公众访问权限,Meta首席AI科学家Yann LeCun在近期演讲中透露。
Meta的一位女发言人表示,Galactica是"一个研究项目的成果,而非为商业用途设计"。在一份公开声明中,Meta基础人工智能研究董事总经理乔尔·皮诺写道:“鉴于Galactica等大型语言模型容易生成看似真实实则不准确的文本,且其影响已超出研究社区范围,我们决定将演示版从公开渠道撤下。”
另一方面,证明你的人工智能更值得信赖可能比成为最大、最好或最快的答案库更具竞争优势。这似乎是谷歌的赌注,该公司在最近的公告和周三的演示中强调,在测试和推出自己的聊天式生成AI系统时,将遵循2019年《人工智能原则》中概述的’负责任AI’理念。"
我的同事乔安娜·斯特恩上周生动描述了使用整合了ChatGPT的微软必应搜索引擎和Edge浏览器的体验。你可以加入候补名单测试该服务——谷歌表示将在未来几个月内推出名为Bard的聊天机器人。
但在此期间,要理解为何信任这类搜索引擎如此困难,你可以访问现有的其他聊天式搜索引擎。比如You.com可以通过聊天机器人回答问题,或者Andisearch.com能对你搜索的主题返回的文章进行摘要。
即便是这些较小的服务也让人感觉有些神奇。如果你向You.com的聊天模块提问"请列出基于AI的最佳搜索引擎",在适当条件下,它能给出一个连贯简洁的答案,涵盖该领域所有知名初创公司。但根据提问方式的细微变化,它也可能在答案中添加完全无意义的内容。
在测试中,You.com大多能给出基本准确的回答,但往往会额外添加一个根本不存在的搜索引擎名称。通过谷歌查询这些虚构的搜索引擎名称发现,You.com似乎误将文章中引用的人名当成了搜索引擎名称。
Andi首席执行官Angela Hoover表示,该平台之所以不以聊天形式返回搜索结果,正是因为确保答案准确性仍极具挑战。“看到这些巨头企业验证对话式搜索是未来方向令人振奋,但实现事实准确性非常困难,“她补充道。因此目前Andi以传统格式提供搜索结果,但提供AI摘要功能来概括返回的页面。
Andi目前团队不足10人,迄今融资250万美元。这个小团队取得的成就令人印象深刻,但显然要打造可信的AI需要微软、谷歌等公司级别的庞大资源。
约翰霍普金斯大学研究人机交互的运营管理教授戴廷龙指出有两个原因:首先是需要庞大的计算基础设施,这意味着大型科技公司现有云架构中数以万计的计算机。部分计算机用于训练支撑生成式AI系统的巨型"基础"模型,另一些则专门将训练好的模型提供给用户使用——随着用户增长,这项任务可能比原始训练更具挑战性。
戴博士指出,第二个原因是需要投入大量人力资源持续测试和调整这些模型,以确保它们不会产生过多无意义内容或带有偏见及冒犯性的言论。
谷歌表示已动员全公司员工测试其新型聊天搜索引擎,并对生成结果的任何问题进行标记。微软已开始小范围向公众推出聊天搜索引擎,目前正通过公开方式进行此类测试。作为微软聊天引擎基础的ChatGPT已被证实存在被"越狱"以生成不当内容的风险。
大型科技公司或许能通过其特有的大规模实验,克服AI应用中的问题——无论是谷歌的谨慎推进策略、ChatGPT偶发的不准确结果,还是聊天版Bing可能提供的不完整或误导性答案。
“ChatGPT等基础模型在偏见甚至基本事实方面表现欠佳的唯一原因在于它们是封闭系统,缺乏反馈机制,“戴博士表示。谷歌等科技巨头在收集反馈优化算法结果方面已有数十年经验,例如谷歌搜索和谷歌地图长期设有反馈渠道。
戴博士认为,未来AI系统可信度的参照物可能是互联网上算法介入最少的平台之一:维基百科。虽然这部完全由人类编写编辑的百科全书不如原始资料可靠,但用户普遍认知这一点并仍觉其有用。维基百科证明,对于算法输出可信度(或人类编辑输出可信度)的问题,“社会化解决方案"是可行的。
但维基百科的模式也表明,这种通过人力密集型方案来打造可信AI的路径——Meta和谷歌等公司已在其内容审核系统中大规模应用多年——很可能会巩固现有大型科技公司的权力。唯有它们不仅拥有计算资源,还具备人力资源,能够处理其AI将产生的所有误导性、不完整或带有偏见的信息。
换言之,通过审核AI生成内容来建立信任,可能与审核人类生成内容建立信任并无本质区别。而大型科技公司已证明这是一项艰巨、耗时且资源密集的任务,其承担能力远超其他企业。
当这些新型AI被整合进搜索引擎或其他潜在应用时,其立竿见影的实用性正是当前媒体、分析师和投资者对AI狂热的原因。显然这可能是颠覆性技术,将重塑注意力经济的分配格局,威胁谷歌的搜索垄断地位,并为微软等公司开辟新市场与收入来源。
根据瑞银近期报告,ChatGPT创下有史以来最快达到1亿用户的纪录,这表明在该领域成为激进的先行者至关重要。同样明确的是,要成为成功的先行者,需要只有科技巨头才能调动的资源规模。
写信给克里斯托弗·米姆斯,邮箱:[email protected]
刊登于2023年2月11日印刷版,标题为《新人工智能需要什么?你的信任》。