纽约具有里程碑意义的人工智能偏见法引发不确定性——《华尔街日报》
Richard Vanderford
企业及其服务提供商正努力应对如何遵守纽约市对招聘中使用的人工智能系统进行审计的要求。
纽约市一项将于1月生效的法律将要求公司对其招聘中使用的AI系统进行审计,评估包括种族和性别等方面的偏见。根据纽约的法律,招聘公司对违规行为最终需承担责任,并可能面临罚款。
但这一要求带来了一些合规挑战。与经过数十年会计经验完善的财务审计不同,AI审计流程是全新的,且没有明确的指导方针。
“存在一个主要问题,即目前尚不清楚AI审计的具体构成,”专注于AI领域的律师事务所BNH的管理合伙人安德鲁·伯特表示。“如果你是一个使用这类工具的组织……可能会感到相当困惑。”
这项城市法律可能会影响大量雇主。根据纽约州劳工部的数据,2021年纽约市有近20万家企业。
纽约市的一位发言人表示,其消费者和工人保护部门一直在制定实施该法律的规则,但他没有提供可能发布的时间表。他没有回应关于该市是否对缺乏指导的投诉有回应的询问。
亨顿安德鲁斯库斯律师事务所劳动和就业团队的联席主席凯文·怀特表示,除了在纽约市的直接影响外,雇主们相信审计要求很快将在更多司法管辖区实施。
人工智能已悄然渗透进众多企业的人力资源部门。根据人力资源管理协会今年早些时候发布的研究,近四分之一的企业运用自动化技术、人工智能或两者结合来支持人力资源活动。在员工超过5000人的企业中,这一比例升至42%。
其他研究显示企业应用率甚至更高。
人力资源管理协会政府事务负责人艾米丽·狄更斯表示,在"人才争夺战"中,AI技术能帮助企业更快招聘和录用候选人。
技术倡导者认为,若运用得当,AI还有可能阻止不公平偏见渗入招聘决策。例如,人类可能会无意识地偏袒母校校友或某球队粉丝,而计算机既无母校概念也没有偏爱的运动队。
HireVue公司首席数据科学家林赛·祖洛阿加指出,人类思维因其隐藏动机是"终极黑箱",而算法对不同输入的反应是可检测的。该公司客户包括联合利华集团和卡夫亨氏公司,其提供的软件能实现面试自动化。
但祖洛阿加女士警告,若企业不够谨慎,AI可能"大规模产生偏见,这很可怕",她表示支持当前对AI系统开展的审查工作。
她透露HireVue的系统会定期接受偏见审计,公司致力于确保客户对其工具放心使用。
例如,2020年发布的一项针对HireVue算法的审计发现,少数族裔候选人更倾向于对面试问题给出简短回答,比如"我不知道"这类回应,这会导致他们的回答被标记为需要人工复核。HireVue为此调整了软件处理简短回答的方式。
代表企业利益的美国商会表示,企业对人工智能审计要求的"不透明和缺乏标准化"存在担忧。
商会技术参与中心副主席乔丹·克伦肖指出,更令人担忧的是对小企业可能产生的影响。
亨顿律师事务所的怀特先生称,许多公司甚至不得不紧急排查招聘流程中使用AI系统的范围。各公司在确定由哪个职能部门"主导"AI应用方面做法不一,有些由人力资源部门推动,有些则由首席隐私官或信息技术部门负责。
“他们很快意识到需要组建跨部门委员会来梳理AI的所有应用场景,“他说道。
由于纽约州未提供明确指引,他预计审计工作将出现多种不同做法。但他表示合规困难不会让企业退回前AI时代的工作流程。
“这项技术太有用了,不可能束之高阁,“他评论道。
部分批评人士认为纽约州新法规力度不足。监控技术监督项目、纽约公民自由联盟等组织在法案通过前联合致信,指出缺乏偏见审计标准的同时,呼吁实施更严厉的处罚措施。他们建议,销售存在偏见工具的企业自身也应面临处罚等更严格规定。
监管机构在初期未必会追求完美。
“监管者真正寻求的是真诚的努力,“麦肯锡公司数字信任联合负责人利兹·格伦南表示,“坦白说,监管者将在实践中学习。”
格伦南女士称,部分企业并未等到1月生效日期就已采取行动。
企业行动的动机既源于声誉风险,也出于对监管措施的担忧。AI治理软件公司Monitaur Inc.首席执行官安东尼·哈巴耶布指出,对于拥有高知名度品牌的大型企业而言,对社会影响及环境、社会和治理(ESG)问题的关注可能超过对"被监管机构处罚"的忧虑。
“作为大型企业…我需要证明自己清楚AI可能存在的问题,“哈巴耶布先生说,“与其等待他人指示…我主动为这些应用建立控制机制,因为我知道就像任何软件一样,AI系统也可能出错。”
新法律可能产生广泛影响。根据州数据,纽约市2021年约有20万家企业。图片来源:ANDREW KELLY/REUTERS**联系作者:**理查德·范德福德,邮箱:[email protected]