如何让人们信任人工智能的预测——《华尔街日报》
Taly Reich and Sam J. Maglio
人们通常对人工智能的信任度不如对其他人高。但有一种方法可以改变这种状况。插图:贾科莫·巴尼亚拉在人类与算法的竞赛中,这几乎算不上是一场较量。在人类大脑还在纠结午餐吃什么的时间里,机器通过复杂方程处理海量数据,经常能比专家更准确地预测,例如哪位员工会在工作中取得成功,以及如何优化供应链。
机器还有能力改变我们作为消费者的生活——预测哪些衣服最适合我们,哪些电影我们会最喜欢,以及哪种治疗方法最有可能成功。
然而,这种更智能、更快乐、更高效的生活承诺却无人理会,因为人们很难摆脱所谓的算法厌恶。我们不愿意信任某种模糊的公式,更愿意咨询有生命的东西,任何有生命的东西。如果我的医生或朋友搞错了,至少我可以嘲笑他们的直觉失误。更重要的是,我们可以与那些给我们提供糟糕建议的人交谈,这可以为他们提供一个学习的机会,表明他们的建议值得以后再次寻求。
这些对话不会通过方程式发生。算法的内部运作仍然是个谜,我们只能观察结果而无法了解过程。因此,如果算法预测出现偏差,我们就会认为这个黑匣子必定已无法修复,动摇我们再次咨询它的信心。
除非我们能说服潜在用户,算法和人一样能从错误中学习。正如我们最近发现的那样,这能显著减少对算法的抵触情绪。
微弱的信任
我们的第一项研究证实了算法面临的艰难处境。一组参与者读到一位能通过简短概述以80%准确率识别他人性格的心理学家。对另一组,我们将心理学家替换为算法。所有人随后回答两个问题:(1)他们认为算法从过去错误中学习的能力如何,(2)他们对其信任度如何。结果证实,人们认为算法从错误中学习的能力明显较弱,导致信任度降低。
问题显而易见后,我们接下来考虑了一个简单的解决方法:向人们展示算法确实能学习。
随后的一个实验中,参与者选择由人类心理学家或算法来预测他人性格。与第一项研究一样,一组参与者仅知道算法的成功率与心理学家相同,均为相对令人印象深刻的80%。其他参与者则看到算法性能逐步提升的详细历史:前三个月为60%,之后升至70%,现在达到80%。在这些参与者中,三分之二选择了算法而非人类,尽管当前两者成功率相同。向人们展示算法在学习足以改变他们对机器的信任。
一项类似的研究承诺向在线参与者免费赠送一件艺术品——他们只需选择是由艺术策展人还是算法来挑选作品。部分人仅被告知当年算法推荐作品的售出率为65%;另一组人则看到算法成功率从55%稳步提升至60%,最终达到65%(与策展人成功率持平)。当展示算法持续进步的表现时,人们对算法的偏好度跃升了18%——从38%增至45%。
潜在可能性暗示
并非所有算法都会持续优化。面对这种情况如何赢得消费者?我们思考是否通过暗示算法具有未来改进潜力就能奏效。为此,我们将"传统算法"改称为"机器学习算法"。当名称包含"学习"属性时,参与者对算法的青睐程度与看到详细进步历史的算法持平。
最终研究表明,这种措辞技巧的强大效果甚至能让人放弃个人判断选择算法——即便在挑选艺术品这类主观事务上。面对"传统算法"时参与者56%选择相信自己,但当对象变为"机器学习算法"时,67%的人转而选择算法。仅仅改变算法名称就足以扭转人们对它的态度。
犯错并非人类专利——任何试图预测未来的存在,无论人还是机器,都难免失误。人工智能未来的成功,或许取决于能否让人们相信:从错误中学习的能力,同样可以超越人类。
Reich博士是耶鲁大学管理学院的市场营销学副教授。Maglio博士是多伦多大学罗特曼管理学院及士嘉堡分校的市场营销与心理学副教授。他们的联系方式是[email protected]。