人工智能机器人应享有道德或法律权利吗?——《华尔街日报》
Daniel Akst
插图:Rob en Robin去年,谷歌一位软件工程师提出了一个不寻常的论断:该公司开发的人工智能聊天机器人已具备感知能力,应享有与人类同等的权利,甚至可能拥有灵魂。在公司就此事与该员工进行"长时间沟通"后,谷歌解雇了他。
这不太可能是最后一起类似事件。人工智能正在撰写论文、赢得棋局、检测潜在癌症并做出商业决策。对于这项只会变得更强大、更普及的技术来说,这只是开始,它加剧了人们长期以来的担忧:机器人有朝一日可能会超越人类。
然而,对于应如何对待这些新型智能体——其中一些将以日益拟人化的形态呈现——的关注却少得多。我们最终是否应赋予它们某种道德或法律权利?如果它们的外表和行为都像人,我们是否会觉得应该像对待人类一样对待它们?
回答这些问题将迫使社会直面深刻的社会、伦理和法律困境。究竟是什么赋予一个存在物权利?这些权利又应该是何种类型?人类与动物的关系中是否存在可借鉴的相似之处?未来极有可能超越人类智能的合成心智,是否有朝一日会获得投票或结婚的权利?如果它们明确要求这些权利,还有人能拒绝吗?
这些担忧看似牵强,但机器人入侵早已悄然展开。随着ChatGPT和微软搜索引擎新版AI驱动必应的突然崛起——两者对用户问题展现出的复杂应对能力令人惊叹——这些即将无处不在的人工智能形态的权利问题已变得迫在眉睫。
《机器人权利》等著作的作者大卫·J·冈克尔表示:“我们必须立即思考这个问题。“他援引人工智能的快速普及及其飞速发展的能力补充道:“我们已身处这一领域。”
‘道德灾难’
事实上,法学家、哲学家和机器人专家已就此争论多年——这些讨论的核心共识是:当人工智能发展到足够先进的临界点时,某种权利必将随之而来。“如果未来社会创造大量与人类同级、具有同等自我意识、对未来同样焦虑、同样能体验快乐与痛苦的AI,却仅因琐碎理由就对其施以折磨、奴役和杀害,“哲学家埃里克·施维茨格贝尔和玛拉·加尔扎在2015年论文中写道,“那将是一场道德灾难。”
这一观点的主要依据是机器人可能获得类感知能力——即觉察与感受的潜能。真正的难题在于:人造生命究竟能否达到这种境界,还是最多只能像现在这样模拟意识。
有些人认为外在表现就足以作为证据,主张这是我们判断人类具有感知能力的唯一依据。数学家艾伦·图灵曾提出著名观点:如果计算机表现得像一个有意识的生物,我们就应当承认它确实如此。英国计算机先驱兼国际象棋专家大卫·利维赞同此观点并进一步指出,通过机器学习,最初仅能模仿人类情感的人工智能"可能会习得我们从未体验或描述过的新感受、新情绪”。
冈克尔博士表示,若机器人真能获得权利,首先出现的将是类似动物保护的基本权利——目前多地已立法禁止虐待动物。与动物类似,机器人可被视为哲学家所称的"道德受体”,即无论其能否履行"道德主体"的责任义务,都值得道德关怀。你的狗是道德受体,你也是。但你还同时是道德主体——能够明辨是非并据此行事。
当然,活体动物具有意识,而人工智能则以代码形式存在,即便被赋予我们称之为机器人的实体。然而,出于同情或担心暴行会使人性变得粗鄙,人们仍可能对看似熟悉且具意识的存在施暴、欺凌或恶语相向感到抵触。
这引出了支持机器人权利的第二点论据。MIT机器人专家凯特·达林指出,禁止虐待那些在社会层面与人类互动并引发拟人化反应的机器人,或许能防止人类对彼此间的暴力行为变得麻木。她援引康德的观点:“对动物残忍者,待人亦将冷酷无情。”
在一项在线调查中,计算机科学家加布里埃尔·利马及其同事发现,尽管受访者“主要反对赋予人工智能和机器人权利”,如隐私权、工作报酬权、言论自由权以及起诉或被诉权,但他们“支持保护电子代理人免受虐待”。另一项由人机交互专家玛尔特·M·A·德格拉夫主导的调查显示,“相比投票权和财产所有权等社会政治权利,人们更倾向于授予机器人基本权利,如获取能源和更新升级的权利”。
自主行动
随着人工智能日益精进,支持机器人权利的论点可能会更具说服力。这引出了第三个权利主张:机器人将越来越具备自主行动能力,可能既要对其行为负责,也有权获得正当程序保护。届时,机器人将成为道德主体——并很可能主张其应享有相应权利与特权,包括拥有财富、签订法律协议甚至参与投票。部分人还预见到某种“公民身份”的可能性。
“任何具备自我意识、能使用已知语言交流、可识别道德选项从而做出道德抉择的机器人,”利马先生强调,“都应被视为我们社会中值得尊重的‘机器人人格’。若果真如此,它们难道不该享有所有公民的权利与义务吗?”
一些专家预见,法律将兴起一个新兴分支,既保护机器人又追究其责任。已有理论探讨机器人犯错时应当承担何种法律责任,以及适用何种惩罚方式。此外,企业法人地位为法律将非人实体视为"人"提供了先例。法学教授兼医师瑞安·阿博特在《理性机器人》一书中主张:为鼓励人工智能参与创新,法律不应区别对待AI与人类行为。阿博特博士曾参与促成南非授予全球首个将AI列为发明者(非专利持有人)的专利。
支持机器人权利的另一个利己论点是:若我们善待它们,未来其主宰世界时或会投桃报李。畅销书作家布莱恩·克里斯蒂安(其著作探讨人机如何相互改变)指出:“将自身视为和谐道德生态系统的组成部分,而非地球主宰者,能在假想出现比人类更强大存在时,为我们保留生存空间。”
人性贬值
然而许多人反对赋予人工智能权利或人格,尤其当依据是其可能具备感知能力时。感知力本就难以界定,且若真存在于机器人中,也必是人类赋予——专研科技伦理的学者乔安娜·J·布莱森等批评者坚称人类不该这样做。
布莱森博士在一篇标题颇具争议的论文《机器人应当为奴》中论述道:文中指出“让人们误以为机器人具有人格是错误的”,更重要的是,制造值得我们赋予人格的机器人更是错上加错,因为这只会进一步贬低人性价值。
研究科技社会学的MIT教授雪莉·特克尔同样对机器人可能被视为"人"的前景感到不安,她担心这会削弱人类的独特性。例如,机器人护理员或许能给养老院居民带来些许慰藉,但在特克尔博士看来,这不过是权宜之计,无法替代人类给予的温暖与理解。她强调:“机器人并非道德存在,只是智能的表演性物件。”
然而她承认,当人类与机器人互动时,即便明知其不具备感知能力,我们仍倾向于将其视为有生命的存在。因此她预言:“未来将围绕无生命体形成全新的关系类别——包括新的规则与新的社会规范。”
MIT机器人专家达林博士通过工作坊实验展示了未来可能出现的机器人伦理规范:参与者与"大小类似小猫的可爱机器恐龙Pleo"互动后,当被要求捆绑并"处决"这些机器人时,“现场出现了戏剧性场面,多数参与者拒绝’伤害’机器人,甚至用身体保护它们”。尽管所有人都清楚这些只是无感知的玩具,仍有人为Pleo取出电池以"免除其痛苦”。
“这一切都关乎拟人化,”冈克尔博士说道,并补充说这不是缺陷而是人类的特性。“我们会将自己的心理状态投射到我们的狗、猫和电脑上。这是我们无法关闭的本能。”
哲学家西德尼·胡克早在1959年就指出,最终决定人们如何对待人工智能体的关键因素是“它们是否看起来和行为像我们认识的其他人类”。如果机器人的功能和外观接近人类,如果它们与我们共同生活、照顾我们并与我们交谈,人们可能很难拒绝赋予它们权利。毕竟,除了出身和化学成分之外,还有什么能将我们与它们区分开来呢?
考虑到未来可能具备的能力,机器人有朝一日会提出这样的诉求。而利维先生认为,到那时,已经与机器人助手建立亲密关系的人类很可能会同意。“如果一个机器人拥有所有人类的外在表现,”他说,人们将“更容易接受机器人具有感知能力、值得我们的情感,从而接受它拥有个性和生命。”
在《与机器人的爱与性》一书中,利维先生预言人类最终会与机器人结婚,就像如今人们似乎更倾向于养宠物而非生育孩子。他认为,要使人与机器人之间的亲密关系令人满足,机器人需要具备相当的个性、敏感度甚至自主性。它们还必须在很大程度上看起来和感觉像你和我,尽管很可能更完美。他设想,机器人与人类之间的浪漫伴侣关系将在本世纪中叶真正开始。
阿克斯特先生是纽约哈德逊河谷的一名作家。可以通过[email protected]联系到他。