当AI拒绝你的贷款申请时,你应该有权向人类申诉吗?——《华尔街日报》
Demetria Gallegos
长期以来,计算机算法被用于追踪罪犯、设定保险费率及审核抵押贷款。但当这些应用与人工智能结合后,其影响力会以当事人难以察觉的方式呈指数级放大——机器学习与聊天机器人介入决策流程后,这种计算机辅助评估的"黑箱效应"变得更为深不可测。
但这样合理吗?
这只是人工智能引发的众多新困境之一,我们已就此向《华尔街日报》读者发起探讨。
我们的问题是:当人工智能做出影响个人生活的决策(如抵押贷款评估)时,人们是否有权知晓?被AI拒绝的申请者,是否应有权质疑决策并要求人工重新评估?
以下是部分读者反馈。
对人类判断的谬误假设
无需特别披露是否使用AI进行决策。但无论决策方式如何,每个人都应享有质疑和申请复核的权利。这个问题隐含人类比AI更"公平"的前提,这本身就是值得商榷的假设。
- 萨布丽娜·马布比,加州比佛利山庄
AI的隐形偏见
必须披露!在处理敏感信息时,向客户告知AI的使用至关重要。若AI模型基于未公开数据训练,可能携带导致重大决策偏差的隐形偏见(如房贷评估)。除非模型仅使用信用分数、收入区间等透明参数,否则任何基于复杂/不透明因素的决策都应向客户披露。
不仅应让客户知晓AI的参与及其决策依据,还应保留其要求人工复核决策的权利。这仍是项新技术,任何新生事物都需经历问题修正的过程。AI的引入不应模糊流程,而应优化流程,确保决策保持公平、透明并接受人工监督。
- 赫克托·洛佩兹,休斯顿
算法不具备同理心
当然需要,因为人类拥有算法无法训练出的经验与共情能力。个人理应享有向人类申诉的权利。
- 斯科特·金,乔治亚州斯泰茨伯勒
责任归属不变
若人们有权因歧视或损失起诉贷款机构,那么决策者是谁并不重要——责任主体仍是机构本身。如果无权质疑人工借助软件做出的决策,又为何有权质疑完全由软件做出的决策?
- 唐纳德·卡西尔,芝加哥
越透明,AI越完善
是的,他们应享有知情权。我认为这将促使AI工具制造商构建更优质的系统——通过训练消除偏见等。至于挑战决策的权利,需视情况而定。抵押贷款历来存在偏见问题(红线歧视仍存),此类案例中确实需要。
- 蒂姆·麦古金,弗吉尼亚州雷斯顿
消费者的权利
是的,我认为了解得越多对消费者越有利。人工智能常被宣传为比人类更智慧、更少缺陷,面向大众和企业推广,但其主要优势目前仍在于效率。由AI做出的抵押贷款决策肯定比人类更快,但并没有内在理由表明其决策会更优。AI只能在数据集和参数范围内运作,因此任何决策都基于预设的标准。根据AI编程方式的不同,它可能会强制执行关于谁可获得贷款的不公平或带有偏见的标准。
由于存在潜在偏见的可能性,消费者应有权知晓自己的生活是否受到算法影响,以及算法如何或为何做出某项决定。
- 丽贝卡·小林,弗吉尼亚州费尔法克斯
不敢奢望
应允许人类员工推翻AI的决策,但从现实角度(基于当前企业政策和流程),我对这方面不抱太大期望。在现有推翻自动化决策系统的尝试中,我们已经看到了无效性和循环逻辑的使用:“很抱歉,您对系统判定的上诉已被拒绝。计算机判定您存在信用风险,因此我无法推翻系统的决定。”
- 约翰·帕齐亚莱,佛罗里达州奥卡拉
责任在人,不在机器
没有人有义务告知是否使用AI做出某项决定。我不需要告诉你我是用计算器的会计师还是用扳手的机械师。人们选择是否使用AI等技术。话虽如此,如果工作质量低劣,应该承担责任的是人,而非AI或计算器。
因此,如果你因错误原因被拒绝,无论是否涉及人工智能,你都应该有权提出质疑。选择使用有缺陷机器的人应当承担责任,而非机器本身。在未来几年里,人类问责制才是关键,而非机器问责。
- 布拉德·格里岑科,北卡罗来纳州维克森林
劣质数据泛滥成灾
我们现有的运作系统本质上已是人工智能,它们做出的决策影响着我们。例如用于确定保险费率的信用评分系统,它抓取海量数据并与个人关联,通过计算信用评分来制定房屋和汽车保险的费率等级。
这些系统使用的数据极其可疑(以我本人为例,他们竟采用与我已故父亲相关的数据——我们同名同姓,而他在1979年就已去世——来计算我的评分),且因其算法属于商业机密而逃避审查。尽管法规要求保险公司披露评分使用情况,但这些评分结果本身却无法被质疑。
这些人工智能评分的开发者刻意将运作机制复杂化,并声称无法修正错误,因为错误源自数据提供方——而后者从不与外界沟通。我们越是依赖不透明的算法和无法修正的劣质数据,就越难挑战这些左右生活的决策。
- 拉尔夫·卡鲁索,佛罗里达州棕榈城
银行家视角
我认为这取决于你问谁。作为一名银行从业者,我认为人工智能能极大加速贷款申请的信用评估流程。通常银行不会透露具体的借款人信用评估程序,这能给我们更大操作空间。但信贷流程中确实存在需要人类判断的环节:人工智能可以接管数据收集和初步评估,而人类更擅长评估借款人的品格和客户关系维护。即使在信用分析中,人工智能对某些数据的解读也可能片面,这时就需要人类介入进行更全面的研判。
如果任何人被人工智能主导的流程拒绝,那么他们应有权要求由人类重新评估,因为在这些情况下,信用申请存在人类更能辨识和阐述的无形特质。
- 敏·赵,加利福尼亚州布雷亚
目前仍需人工复核…
无需公开人工智能在决策过程中的参与。
决策质量仅取决于决策者(无论是个人还是AI)的训练质量。如果AI经过良好训练并采用适当考量(如消除偏见等),它很可能比一群带有个人偏见和独特癖好的人类评估者更优秀、更稳定。
但在AI及其训练成熟之前,所有AI评估都应经过人工复核。随着时间的推移,AI评估的稳定性和质量将超越人类,届时不再需要人工干预。
- 杰伊·韦尔曼,科罗拉多州奥罗拉
AI并无特殊之处
无需披露AI的参与。我们本就无从知晓影响我们的诸多决策(如大学录取和信用评分)的具体形成过程。
- 克林特·尤班克斯,休斯顿
最终决定权归谁?
当然应该公开。AI的准确性完全取决于编程者和其所采集的数据——而这些绝不意味着公平无偏见。人类或许同样存在偏见,但至少人能思考并做出判断。AI绝不应成为大多数事务的最终裁决者。
- 米歇尔·莫特·哈维,密西西比州牛津市。
一场更宏大的对话
原则上,基于人工智能的决策确实应该标注其性质。但消费者保护条款需要更清晰地呈现——将其埋在30页的法律文件中,与完全不声明几乎同样糟糕。人工智能的出现,恰恰推动我们深入探讨如何改进消费者保护机制。
- 杰夫·D·施洛默,加利福尼亚州门洛帕克
同等追责原则
当人工智能决策成为主流时,它必须像人类决策者一样接受问责并在必要时承担同等处罚。例如,若企业贷款决策中存在基于肤色、性别等歧视性特征的行为,必将面临诉讼。现有处罚机制已然存在,人工智能应遵守与所替代人类决策者相同的法律规范。 员工犯错可能被解雇、再培训或追究法律责任,同理,AI模型也应通过再训练、参数调整、更换更优模型或直接停用等方式解决问题。
- 诺曼·谢赫,马里兰州马里奥茨维尔
默认AI化时代
在不远的将来,人工智能将渗透所有领域。要求处处披露AI使用情况将变得冗余且乏味。声明:本文由GPT-4参与编辑。
- 简·扬格,新泽西州克兰福德
德米特里娅·加莱戈斯 是《华尔街日报》在纽约的一名编辑。请通过电子邮件联系她:[email protected]。