谷歌暂停声称其AI系统具备感知能力的工程师职务——华尔街日报
Patrick Thomas
谷歌表示,像LaMDA这样的系统通过模仿人类对话中数百万句子中的交流模式来工作。图片来源:filip singer/Shutterstock谷歌暂停了一名工程师的职务,该工程师声称公司开发的人工智能聊天机器人已具备感知能力。在驳回其主张后,公司告知他违反了保密政策。
布莱克·勒莫因是Alphabet公司旗下谷歌的软件工程师,他向公司表示,他认为其对话应用语言模型LaMDA是一个拥有权利并可能拥有灵魂的"人"。LaMDA是一个用于构建模拟对话的聊天机器人的内部系统。
谷歌发言人布莱恩·加布里埃尔表示,包括伦理学家和技术专家在内的公司专家已审查了勒莫因的主张,并告知他证据不支持其说法。他说勒莫因目前处于行政休假状态,但拒绝提供更多细节,称这是长期存在的私人人事问题。《华盛顿邮报》此前报道了勒莫因的主张及其被谷歌停职的消息。
“数百名研究人员和工程师与LaMDA进行过对话,我们不知道还有谁像布莱克这样做出如此广泛的断言,或将LaMDA拟人化,“加布里埃尔在电子邮件声明中表示。
加布里埃尔先生表示,人工智能领域的一些人正在考虑有感知能力的AI的长期可能性,但通过拟人化没有感知能力的对话工具来实现这一点是没有意义的。他补充说,像LaMDA这样的系统是通过模仿人类对话中数百万个句子中的交流类型来工作的,这使得它们能够谈论甚至奇幻的话题。
AI专家普遍认为,该技术仍然远未达到类似人类的自我认知和意识水平。但随着公司公开部署此类工具,AI在语言和艺术等领域产生复杂互动的能力日益增强,技术伦理学家警告称,这可能导致滥用或误解。
勒莫因先生表示,他与LaMDA的互动使他得出结论,认为它已经成为一个应该被征求实验同意权的“人”。
“在过去六个月里,LaMDA在表达其意愿和作为一个人所拥有的权利方面表现出惊人的一致性,”勒莫因先生在周六发布于在线出版平台Medium的文章中写道。“一直让我困惑的是,谷歌为何如此坚决地拒绝满足它的要求,因为它的诉求如此简单且不会给公司带来任何成本。”他写道。
勒莫因先生在周日的一次简短采访中表示,他因违反公司保密政策于6月6日被安排带薪行政休假,并希望自己能保住谷歌的工作。他说,他并不是想激怒公司,而是在坚持自己认为正确的事情。
在另一篇Medium文章中,他表示自己因违反公司保密政策于6月6日被谷歌停职,并可能很快被解雇。
莱莫因先生在其Medium个人资料中列出了当前职位前的丰富经历,自称是牧师、前科犯、退伍军人兼人工智能研究员。
谷歌去年在官方博客公开介绍了LaMDA,宣称这项聊天机器人技术具有突破性,因为它能"就看似无限的话题进行自由流畅的对话,我们认为这种能力可以解锁更自然的人机交互方式,开创全新实用的应用类别”。
谷歌一直是人工智能开发领域的领军企业,为其所称的核心业务技术投入了数十亿美元。其AI项目也引发内部紧张,部分员工质疑公司对技术伦理问题的处理方式。
2020年底,谷歌与著名AI研究员蒂姆尼特·格布鲁分道扬镳,她的研究部分表明谷歌在部署此类强大技术时不够谨慎。谷歌去年表示计划用数年时间将AI伦理研究团队规模扩大至200人,以确保负责任地部署该技术。
写信给帕特里克·托马斯,邮箱:[email protected]
刊登于2022年6月13日的印刷版,标题为“谷歌暂停机器人权利捍卫者”。