Alphabet的AI批评者们问错了问题——彭博社
Parmy Olson
优化。
摄影师:Gabby Jones/彭博社一小群Alphabet公司的股东最近形成了奇特的联盟,他们要求公司更加关注人工智能风险。
例如,国家法律与政策中心(NLPC)担忧AI对隐私权的影响。倡导"符合圣经原则的投资“的股东Inspire Investing——该机构有时会针对所谓"觉醒"的企业政策——抱怨AI可能审查宗教和政治言论。而股东研究与教育协会(SHARE)则表示谷歌的AI可能无意中侵蚀人权并助长歧视。
彭博观点中国巨型使馆遭遇MAGA宿敌伦敦股市令人难以置信的萎缩我如何学会停止忧虑并爱上准备美中重启对话,但别称之为重置科技对人类潜在的危害长期以来一直是跨越政治光谱的团结力量,让共和党和民主党议员共同谴责社交媒体公司加剧心理健康危机。然而,就像这些努力大多表现为政治作秀一样,这些对AI的最新批评也是如此。
尽管Alphabet的广大股东否决了公司推动的提案,但这并不特别重要,因为这些提案对预防人工智能风险几乎无济于事。原因在于:这三家机构希望Alphabet继续自我评估。
根据Alphabet 2025年委托声明书,NLPC要求谷歌报告是否窃取用户数据训练AI系统,Inspire呼吁评估AI对宗教和政治观点的偏见,SHARE则要求公司撰写AI驱动广告的人权影响研究报告。1
Alphabet回应称这些均无必要,因其已开展充分的风险研究。“我们定期发布《AI责任报告》,详细阐述开发先进AI系统的政策、实践和流程,“公司在声明中表示。
虽然监督谷歌是否滥用个人数据及其他提案是好事,但要求Alphabet自行委托披露的做法缺乏实质意义——关键问题在于未引入独立监管机构或研究者。这使得这些股东提案更像是作秀而非推动实质性变革,尤其考虑到NLPC等团体在本届委托季已向多家科技公司提交类似提案。
硅谷早已精通一种可称为"透明度粉饰"的艺术,发布光鲜亮丽的报告——比如Meta平台公司这份关于Facebook仇恨行为的报告,或是优步科技公司这些安全统计数据——都未经第三方审计。由于缺乏强制披露的法律规定,这些公司将内容审核、算法设计及如今AI模型设计的决策过程完全黑箱化,每当立法者和公民社会组织提出质询时,就搬出这些详尽的报告作为挡箭牌。
当OpenAI首席执行官山姆·奥尔特曼在2023年5月参议院听证会上被问及AI安全风险时,他同样大肆宣扬公司开展的研究,以及"独立专家对模型各项性能指标的审计”。但AI模型的关键要素是其训练数据,而OpenAI多年来对此一直保密。若监管机构或研究人员能获取这些数据,就能更深入地审查该技术是否存在安全漏洞、偏见或侵权问题。该公司以商业机密为由拒绝公开,但法律责任恐怕才是真正原因。
如果字母表的股东们想走推动实质性变革这条充满挑战的道路,他们应该要求外部监督:由独立的技术审计机构——比如四大会计师事务所或学术机构之一——在系统部署前进行评估。几年前,Meta曾朝这个方向迈出第一步,聘请了安永会计师事务所审计其Facebook透明度报告的部分内容,但这还远远不够。
字母表的三家激进股东规模相对较小,因此可能无法在年度股东大会的财务议题上施加足够影响力。但如果他们通过其他政治渠道推动这些监管理念——尤其是具有保守倾向的NLPC——他们的声音可能会更有分量。例如,他们可以游说立法者建立一个类似食品药品监督管理局的AI监管机构,强制企业在向公众发布技术前达到特定标准。在此之前,所有两党共识都将淹没在这个永远维护现状的体系中。
更多彭博观点:
- 别急着推进AI代理进程:凯瑟琳·索贝克
- 大学毕业生是AI实验的小白鼠:帕米·奥尔森
- 扎克伯格终于为元宇宙找到用途——战争:戴夫·李
想要更多彭博观点?OPIN <GO>。或者您可以订阅我们的每日通讯。