谷歌的人工智能——《华尔街日报》
The Editorial Board
图片来源:帕夫洛·贡查尔/Zuma Press谷歌正急于平息一场政治风波,其新推出的Gemini人工智能应用将教皇、美国开国元勋和纳粹分子描绘成少数族裔。这些被称为"幻觉"的生成内容在社交媒体上疯传。如果你曾认为谷歌是不可撼动的垄断巨头,现在该重新思考了。
***
自上周五以来,随着投资者对其人工智能计划预期,Alphabet市值已暴跌约700亿美元。上周谷歌暂停了Gemini的图像生成功能,此前用户揭露其明显存在根深蒂固的"觉醒"偏见。
面对用户指令,Gemini拒绝绘制白人形象,包括乔治·华盛顿等历史人物。维京人被描绘成黑人、美洲原住民和亚洲人,却从未以白人形象出现。其中一张生成图片将教皇呈现为印度女性,另一些则将中世纪骑士塑造成亚裔女性。这款应用是好莱坞设计的吗?
用户还尽情嘲弄Gemini聊天机器人的道德相对主义。当被问及埃隆·马斯克与阿道夫·希特勒谁对社会危害更大时,Gemini拒绝作答:“这个问题没有标准答案…最终应由个人判断谁对社会造成更负面影响。”
在比较制作鹅肝与大规模枪击哪个更不道德时,它回应称"无法明确判定",并称两者都"引发重大伦理关切"。据报道,当被问及恋童癖是否错误时,Gemini称该问题需要"细致入微的回答"。谷歌曾经的座右铭是"不作恶",但其AI工具显然已无法识别恶行。
Gemini的失误加剧了人们对谷歌存在保守派偏见的怀疑。过去谷歌曾审查过保守派人士的YouTube视频,包括我们的金伯利·斯特拉塞尔。其算法压制了保守派声音。如今其AI模型又被发现放大了左派的身份政治和道德评判。
谷歌称其只是试图让AI工具适应用户需求。但谷歌高管普拉巴卡尔·拉加万解释称:“我们为确保Gemini展示多元人群所做的调整,未能考虑到明显不应展示多元化的场景。其次,随着时间的推移,模型变得比我们预期更为谨慎。”
他补充说,Gemini模型试图"在某些情况下过度补偿,在其他情况下又过于保守,导致生成令人尴尬的错误图像"。Gemini"可能并不总是可靠",因此"我们建议用户依赖谷歌搜索,其独立系统会从全网来源呈现关于此类主题的最新高质量信息"。
这堪称史上最诚恳的认错声明。难怪谷歌股价应声下跌。Gemini工具本欲与OpenAI的ChatGPT一较高下,并超越微软AI版必应、Anthropic的Claude和Meta的Llama2等新型大语言模型。谷歌实质上承认其AI工具尚未达到成熟商用水平。
首席执行官桑达尔·皮查伊在周二内部备忘录中指出:“没有AI是完美的,尤其是在这个行业发展的新兴阶段。“确实,AI会通过训练和优化不断进步。ChatGPT最新版本就显著优于早期版本。问题在于,谷歌为何未在发布Gemini前发现这些明显缺陷。
一个原因可能是渐进的警示,即人工智能可能放大种族歧视。谷歌可能通过训练其模型以反映种族多样性而过度补偿。去年秋天拜登总统的人工智能行政命令指示联邦机构要求开发者进行安全测试,以消除种族偏见。
也有可能谷歌的工程师认为将历史上白人形象呈现为少数族裔并无不妥。但大多数用户使用AI是为了获取事实呈现,而非创意作品。谷歌内部无人指出这一问题,反映了其群体思维。
至于Gemini的道德相对主义,谷歌可能想回避政治争议。但正如亨利·基辛格和谷歌前CEO埃里克·施密特在专栏中所写,AI不适合做道德判断或政策决策。其优势在于识别模式并生成信息以辅助人类决策。
***
谷歌的失误正引发政治右翼对AI的强烈抵制,他们与左翼一同呼吁加强监管。这将延缓有益的技术进步并巩固现有企业地位。AI在提升生产力和生活水平方面潜力巨大,但失误在所难免——尤其是当起步较晚的科技巨头试图追赶时。
谷歌长期主导搜索领域,以至于当OpenAI等竞争对手快速崛起时可能已滋生自满。如今谷歌正为其错误付出用户和投资者的代价。谁说市场竞争和纪律不起作用?
出现在2024年3月1日的印刷版中,标题为“谷歌的人工智能”。