《华尔街日报》——儿童视角下的智能机器
Alison Gopnik
心理学家艾莉森·高普尼克探索人性科学的新发现。阅读往期专栏请点击这里。
为何人们如此轻易地将机器——尤其是像ChatGPT这样的人工智能系统——视为具有意图、情感甚至道德的存在?一项新研究表明,这种倾向可能根深蒂固:幼童认为扫地机器人Roomba或智能音箱Alexa拥有思想感情,应当被当作人类同伴对待。
曾经看似神奇的"智能"机器如今无处不在。数百万孩子在Roomba扫地机器人的陪伴下长大,看着它在家中灵活避障、钻入角落;更多孩子从小礼貌地对着名为Alexa的小盒子点播最爱的歌曲或电视剧。孩子们如何看待家中这些精密的计算机?(当然,一旦进入家庭,我们往往会忘记它们是精密计算机。Roomba发明者、计算机科学家罗德尼·布鲁克斯常调侃说,自己最初只是麻省理工学院人工智能实验室主任,后来"高升"成了吸尘器推销员。)
Roomba和亚马逊Alexa特别值得玩味之处在于:它们既无人形外观(没有面部或身体),其拟人化行为又呈现截然相反的形态——Roomba能自主移动完成清洁任务但不会说话,Alexa能对答如流却无法移动。
杜克大学的塔玛·库什尼尔与她的学生特蕾莎·弗拉纳根、加文·王研究了儿童对这些科技的认知,相关成果发表于《发展心理学》期刊。他们向127名4至11岁儿童展示了Roomba和Alexa等不同科技产品的实际运作,随后通过问卷调研孩子们对这些机器的思想、情感及道德地位的看法。
大多数孩子已经对Alexa和Roomba很熟悉了。他们告诉研究人员,这两者更像电脑而非人类。但尤其是年幼的孩子们认为即使是这些看似简单的机器——一个圆形吸尘器和一个黑盒子——也可能拥有思想和情感:它们可能会感到饥饿、发痒或独立思考。
机器的交互方式产生了差异,尤其是在涉及高级心理功能时。孩子们表示,健谈的Alexa比沉默的Roomba更有可能拥有思想或分辨是非。但他们认为两者都可能感到饥饿或怕痒。年幼的孩子还认为这两种机器都可能选择伤害他人:Roomba可能会故意碾过你的脚趾,或者Alexa可能会说些伤害你感情的话。
年龄较大的孩子不太可能说机器有情感或经历,或者它们是有意行动的。这可能是因为孩子们在思考能动性方面变得更加成熟,或者因为他们对机器的局限性有更多了解。但即使是年龄较大的孩子也认为机器可能有一些思想和情感。引人注目的是,无论年龄大小,孩子们都认为打骂机器是错误的。一个10岁的孩子说:“那样机器人会非常难过。”
这项研究可能有助于解释为什么人们如此容易将AI系统视为有意识的存在——这是一种早期、自然的直觉。我们似乎特别容易对那些使用语言的系统产生这种感觉,尽管像Roomba这样在现实世界中实现目标的能力可能才是智能的真正标志。或许这项研究中人与技术关系最好的消息是,孩子们认为将机器视为有意识的存在意味着要善待它们。
出现在2023年5月13日的印刷版中,标题为《孩子眼中的智能机器》。