谷歌在军事人工智能领域做出危险转向——彭博社
Parmy Olson
灵魂拷问。
摄影师:Dan Kitwood/Getty Images Europe谷歌“不作恶”的时代已彻底终结。
2018年母公司Alphabet将这一口号替换为更温和的“做正确的事”后,如今又撤销了公司在军事领域应用人工智能的最重要伦理立场之一。
本周,该公司删除了关于不将AI用于武器或监控的承诺,该承诺自2018年起持续生效。其“负责任AI”原则中已移除相关内容,AI负责人Demis Hassabis发布博文解释称这是必然进步而非妥协。
彭博社观点国会共和党人自显软弱花旗银行正成为职场妈妈的新磁石那些美国女子在巴基斯坦的梗图?并不好笑希音钻漏洞遭封杀 美国出手正当其时哈萨比斯写道:“[人工智能]正变得像手机一样无处不在。”它已经“迅速发展”。
然而,认为伦理原则也必须与市场一起“进化”的观点是错误的。是的,正如哈萨比斯所描述的那样,我们生活在一个日益复杂的地缘政治环境中,但放弃战争伦理准则可能会产生失控的后果。
将人工智能引入战场,你可能会得到以机器速度相互响应的自动化系统,没有时间进行外交。战争可能会变得更加致命,因为冲突在人类有时间干预之前就会升级。尽管人工智能系统会犯很多错误,并可能造成平民伤亡,但“干净”的自动化战斗的想法可能会促使更多军事领导人采取行动。
自动化决策是这里真正的问题。与之前使军队更高效或更强大的技术不同,人工智能系统可以从根本上改变谁(或什么)做出夺取人类生命的决定。
更令人不安的是,在所有的人中,哈萨比斯的名字出现在谷歌的措辞谨慎的辩护上。2018年,当公司制定其人工智能原则时,他唱出截然不同的调子,并与2400多名人工智能领域的人士一起签署了不开发自主武器的承诺。
不到十年后,这一承诺已无足轻重。谷歌政策团队前成员、政策和传播公司Worker Agency的联合创始人威廉·菲茨杰拉德表示,多年来,谷歌一直承受着签订军事合同的巨大压力。
他回忆起2017年美国前国防部副部长帕特里克·沙纳汉访问谷歌云业务位于加州森尼韦尔总部的情景,当时该部门员工正在搭建与五角大楼合作开展绝密军事项目所需的基础设施。当时对获得合同充满期待。
菲茨杰拉德帮助阻止了此事。他参与组织了公司对"梅文计划"的抗议活动,这是谷歌与国防部签订的一项协议,旨在开发用于分析无人机画面的人工智能技术,谷歌员工担心这可能导致自动化目标锁定。约4000名员工签署了请愿书,声明"谷歌不应涉足战争业务",约十几人辞职以示抗议。谷歌最终让步,没有续签合同。回顾过去,菲茨杰拉德认为这只是一个小插曲。“这是硅谷发展轨迹中的一个异常现象,“他说。
自那以后,例如OpenAI已与国防承包商Anduril Industries Inc.合作,并向美国军方推销其产品。(就在去年,OpenAI还禁止任何人将其模型用于"武器开发”。)自称以安全为首要原则的AI实验室Anthropic,也在2024年11月与Palantir Technologies Inc.合作,将其AI服务Claude销售给国防承包商。
谷歌自身一直在努力为其工作建立适当的监督机制,但多年来举步维艰。该公司于2019年解散了一个备受争议的伦理委员会,一年后又解雇了两位最著名的AI伦理主管。这家公司已偏离最初目标太远,甚至看不清方向。其硅谷同行们同样如此——这些企业本就不该被放任自我监管。
不过幸运的话,谷歌的急转弯将在下周给政府领导人施加更大压力,迫使其在军备竞赛态势和政治压力导致规则更难出台之前,为军事AI发展制定具有法律约束力的法规。
规则可以很简单:强制要求人类监督所有军事AI系统;禁止任何未经人类批准即可选择目标的完全自主武器;确保此类AI系统可被审计。
未来生命研究所(由埃隆·马斯克曾资助、现由麻省理工学院物理学家马克斯·泰格马克主持的智库)提出了一项合理政策建议:呼吁建立分级制度,要求国家当局像监管核设施那样对待军事AI系统,必须提供明确的安全边际证据。
巴黎会议的各国政府还应考虑成立类似国际原子能机构监督核技术的国际组织来执行这些安全标准,并有权对违反标准的公司(及国家)实施制裁。
谷歌的逆转是一个警告。即使是最强大的企业价值观,在超级热门市场和无法拒绝的政府压力下也可能崩溃。不作恶的自我监管时代已经结束,但仍有机会制定具有约束力的规则来避免人工智能最黑暗的风险。而自动化战争无疑是其中之一。更多来自彭博观点的内容:
想要更多彭博观点?OPIN<GO>。或者您可以订阅我们的每日通讯。