谷歌与Anthropic向企业兜售生成式AI 同时努力弥补其缺陷——《华尔街日报》
Belle Lin
加利福尼亚州门洛帕克——生成式人工智能系统的两大领军企业谷歌和Anthropic正竞相突破技术局限,同时加速推进其产品向企业销售。
两家公司周一晚间在《华尔街日报》CIO网络峰会门洛帕克站发表演讲,承认其AI系统存在幻觉问题——即系统会以权威姿态输出完全错误的陈述。其他挑战包括提升模型训练/教学效率、清除训练数据中的版权及敏感内容等,目前均无明确解决方案。
两家公司表示正在应对这些局限,但并非所有企业都愿意将全部信任(及公司数据)托付给它们。企业技术主管们承受着证明AI投资物有所值的压力,但当系统本身存在失真风险时,这种论证尤为困难。
“在高度监管、高风险或高敏感领域部署这类应用时,贵司能提供哪些应对策略?“金融服务公司OneMain Financial首席技术官劳伦斯·菲茨帕特里克在现场提问。
Anthropic联合创始人兼首席科学官贾里德·卡普兰表示,该AI初创企业正在开发多项降低幻觉的技术,包括构建"我不知道"应答数据集。其理念是通过训练使AI系统仅在掌握充分信息时作答,或为答案提供引用依据。
然而,让AI模型过于谨慎也存在弊端。“我认为这些系统——如果训练它们永不产生幻觉——它们会变得极度害怕犯错,对任何问题都会回答’我不了解背景’。石头不会产生幻觉,但它也毫无用处,“卡普兰说道。
谷歌去年同意将其对Anthropic的投资增至最高20亿美元,该公司押注客户会希望验证AI系统提供的信息。谷歌DeepMind产品管理副总裁伊莱·柯林斯表示,解决方案之一是让用户能轻松识别像其Gemini聊天机器人这类AI系统返回的信息来源。
“目前的情况还不能让你完全信任模型输出,“柯林斯说。“归根结底,我还是想知道信息的源头在哪里,这样我可以去查证。”
模型训练数据的来源仍是另一个未解决的问题。在去年12月提起的诉讼中,《纽约时报》称微软和OpenAI未经许可使用其内容开发人工智能产品,包括OpenAI的聊天机器人ChatGPT。
Anthropic联合创始人兼首席科学官贾里德·卡普兰周一在门洛帕克举行的《华尔街日报》CIO网络峰会上。摄影:尼基·里奇特,《华尔街日报》图片来源:尼基·里奇特,《华尔街日报》诉讼称,这些工具基于数百万条《纽约时报》内容进行训练,并利用这些材料回应用户的提问。但卡普兰表示,如果要求AI公司从其模型训练数据中移除特定内容,目前尚无直接方法实现。
自微软Copilot和Anthropic的Claude等AI助手发布以来,企业一直试图保持对公司数据的控制权,从而阻止科技公司利用其数据训练模型,避免向竞争对手泄露专有信息。
卡普兰指出,大型语言模型一旦基于特定数据完成训练,就无法从已学知识中"删除"这些信息。
谷歌和Anthropic正在解决构建更强大模型的最大障碍——用于训练的AI芯片等硬件的可用性、容量和成本问题。“最核心的需求是真正高效的计算资源,“卡普兰表示。
柯林斯透露,谷歌持续通过研究突破应对该问题,包括自主研发的Tensor处理单元(TPU)芯片。“我们在自有数据中心部署TPU,因此受到的限制更少,“他解释道。
谷歌新推出的Gemini模型中最大版本已比其前代产品更高效且构建成本更低,他说道。
Isabelle Bousquette和Steven Rosenbush对本文亦有贡献。
联系Belle Lin,邮箱:[email protected]