谷歌从其公开AI原则中删除了关于武器的表述(GOOGL)——彭博社
Julia Love, Olivia Solon, Davey Alba
Alphabet旗下谷歌公司从其人工智能原则中删除了一段承诺避免将该技术用于武器等潜在有害应用的条款。
根据彭博社查看的截图,该公司此前的人工智能原则包含名为"我们不会开发的AI应用"章节,其中明确列出"可能导致整体伤害的技术(包括武器)"。相关表述目前已从页面上消失。
针对置评请求,谷歌发言人提供了周二发布的博客文章作为回应。
谷歌高级副总裁詹姆斯·马尼卡与DeepMind实验室负责人德米斯·哈萨比斯在文中表示:“我们相信民主国家应以自由、平等和人权等核心价值观为指导引领AI发展。秉持这些价值观的企业、政府与组织应共同开发生态保护人类、促进全球增长并支持国家安全的AI技术。”
前谷歌AI伦理团队联合负责人、现Hugging Face首席AI伦理科学家玛格丽特·米切尔指出,删除"伤害"条款可能预示谷歌未来工作方向的变化。
“删除该条款等于抹杀了伦理AI领域活动人士和谷歌内部员工的努力成果。更严重的是,这意味着谷歌现在可能直接开发能致人死亡的技术部署。“她表示。
这一变化是大型科技公司政策更广泛调整的一部分。今年1月,Meta Platforms Inc.解散了其多项多元化与包容性计划,告知员工不再需要为空缺职位面试来自代表性不足背景的候选人。同月,亚马逊公司暂停了部分多元化与包容性项目,一位高级人力资源主管称这些项目"过时”。特朗普政府曾对多元化倡议表示反对。
特蕾西·皮佐·弗雷曾在2017至2022年负责谷歌云"负责任AI"项目,她表示AI原则指导着团队日常工作。“这些原则要求我们深入审视在每个领域的工作,“她在留言中表示,“我坚信这让我们的产品变得更好。负责任AI是建立信任的基石,而信任是成功的必要条件。”
谷歌员工长期争论如何在AI领域平衡伦理考量与竞争压力,特别是在OpenAI推出ChatGPT给这家搜索巨头带来挑战后。2023年,部分谷歌员工向彭博社表达担忧,认为公司为夺回AI优势导致伦理失范。