消费者会购买“自私”的自动驾驶汽车吗?——《华尔街日报》
Julian De Freitas
插图:埃里克·帕尔马2016年,一位梅赛德斯-奔驰高管表示,在开发自动驾驶汽车(AV)时,公司将优先考虑乘客而非行人和其他司机的安全:“如果你知道至少能救一个人,那就救那个。救车里的人。”公司可能没料到随之而来的媒体风暴。《每日邮报》标题宣称:“梅赛德斯-奔驰承认无人驾驶汽车会碾过儿童,而非转向冒险伤及车内人员。”一周内,该车企公开撤回立场,声明“程序员和自动化系统都无权权衡人类生命的价值”。
当然,人类司机在安全问题上早已做出隐性权衡。我们不仅常优先考虑自身生存,还有便利性——比如对明显要过马路的行人不停车,或在停车标志前滑行以节省时间。但显然对明确编码类似偏好的自动驾驶汽车,许多人感到不安。对开发自动驾驶汽车的车企而言,关键问题是:消费者会拒绝乘坐“自私”的自动驾驶汽车吗?
在一项新研究中,我让5,584名参与者设想自动驾驶汽车在千钧一发之际必须决定优先救乘客还是行人。平均而言,人们对自动驾驶汽车优先救乘客的想法更为愤怒,即使被想象自己是乘客时也是如此。当被问及如何编程处理此类权衡时,27%的参与者认为应救乘客,19%选择救行人,但54%表示车辆不应有偏好。
但消费者真的更愿意购买"平等主义"自动驾驶汽车,还是仅仅害怕承认私心会显得自私?在后续研究中,参与者被要求想象一个场景:自动驾驶汽车必须选择是撞向行人还是急转撞上障碍物。随后他们需要选择车辆应该随机决定,还是遵循"撞击距离更近目标"的规则。
当我描述遵循该规则将导致撞击障碍物(危及车内乘客)的情境时,仅47%受访者支持该规则。但当遵循规则意味着撞向行人(保全乘客)时,支持率升至62%。这表明只要给出看似无私的借口——一种不会暴露私心的解释方式,人们更倾向选择优先保护自己的自动驾驶汽车。
这些发现提示汽车制造商:讨论安全设计时应避免赤裸裸迎合私利。比如营销话术可采用暗示性语言(如"始终将您置于首位"),而非直白表述(如"把您看得比别人重要")。事实上,在提供这两种标语的对比研究中,选择乘坐采用模糊标语自动驾驶汽车的人数,是直白标语的两倍多。
2022年1月,特斯拉践行了这一原则,开始允许客户选择其驾驶辅助系统的"温和"/“标准”/“自信"模式。在自信模式下,车辆会保持更短跟车距离,持续占用超车道并进行滚动式停车。即便这些选择带有私心,“自信"的命名让车主能合理化行为,比如告诉自己"我的车就该自信驾驶"或"果断驾驶更安全”。
即便如此,2022年2月美国国家公路交通安全管理局(NHTSA)仍以"滚动停车"行为存在安全隐患为由,强制特斯拉召回53,822辆汽车。一年后该机构进一步要求特斯拉召回362,800辆汽车,因其驾驶软件"可能违反当地交通法规或惯例”。
特斯拉与梅赛德斯的案例表明,随着自动驾驶汽车普及,迎合消费者自私偏好的企业可能危及这项技术应有的安全承诺。
在最后一项研究中,我为参与者提供了新选项:如果自动驾驶程序不明确选择保护乘客或行人,而是编程为最小化任何死亡风险呢?这种情况下,绝大多数参与者更倾向整体风险最小化方案,而非选择牺牲特定群体。这表明存在不必迎合消费者自私冲动的技术方案与营销策略。
朱利安·德弗雷塔斯系哈佛商学院伦理智能实验室主任
本文发表于2023年10月14日印刷版,原标题为《消费者会购买"自私"的自动驾驶汽车吗?》