纽约市开始对招聘工具中的人工智能进行监管 - 《华尔街日报》
Lauren Weber
雇主们正为一项新法规的生效做准备,该法规将于周三在纽约市实施,这将是美国首个对招聘决策中自动化和人工智能使用进行监管的法律。
这项名为NYC 144的法律要求雇主每年对用于辅助招聘和晋升决策的特定软件(包括聊天机器人面试工具和关键词匹配简历扫描器)进行潜在种族和性别偏见的审计,并将结果公布在其网站上。
公众越来越关注算法在人们生活关键领域(从就业、教育到人寿保险和抵押贷款)中扮演的角色。由于算法对大多数人来说即使不是不可能,也极难理清和理解,立法者将重点放在强制透明化而非直接监管软件本身。
尽管NYC 144旨在根除就业决策中潜在歧视迹象,但奥睿律师事务所代表雇主的律师艾琳·康奈尔表示:“这实际上不是反偏见法,而是信息公开法。“她补充说,全美立法者和行业团体正将纽约市视为未来技术监管的试验案例。
根据新法规,雇主需审计对其招聘和晋升决策起重要作用的任何软件,并公布所谓的"不利影响比率”,以显示程序是否对特定种族或性别产生差异性影响。
雇佣纽约市居民的企业需在其网站上公布影响比例,同时声明他们正在使用这些工具,并为求职者提供申请替代筛选或软件分类的途径。若企业不遵守规定,将面临每天最高1500美元的违规罚款。
“这项规定隐含了一个假设:如果雇主看到反映某种偏见的影响比例数据,他们可能会采取行动,“联邦平等就业机会委员会前委员、现劳动咨询公司Resolution Economics合伙人维多利亚·利普尼表示,“这个假设相当大胆,但至少迈出了第一步。”
招聘软件平台Pymetrics(现属Harver旗下)创始人弗里达·波利指出,由于开发者现在拥有更多预测试软件和精准编程的方法,减少或消除自动化工具中的偏见是可能的。她曾为纽约市议会该法案提供建议,并支持加强算法监管。
“这确实需要更多努力,并迫使企业实现现代化,“波利说,“但继续使用存在差异性影响的技术已不合时宜。”
根据该法律,员工和求职者不能仅凭影响比例起诉公司,但可将此信息作为依据地方法规和联邦法规提起歧视诉讼的潜在证据。比例值介于0到1之间——越接近1表示几乎没有偏见,例如0.3的比例意味着每10名通过筛选的男性候选人中,只有3名女性候选人能通过。
利普尼克表示,低比例并不自动意味着雇主在歧视求职者。根据长期存在的法律,如果公司能够证明其招聘标准与工作相关且符合业务必要性,那么差异性影响可能是合法的。
例如,黑人和西班牙裔的大学毕业率低于白人和亚裔美国人,如果雇主能够证明大学学位是工作的必要要求,因此其系统筛选出更高比例的西班牙裔候选人,因为其中拥有学位的申请人较少,雇主可以为其流程辩护。
雇主在过去二十年里开始大量依赖招聘软件,因为技术变得更加复杂,而且在线求职申请成为求职者的常态。面对大量的简历和申请——尤其是在2008-2009年金融危机后失业率飙升之后——雇主投资于技术,以帮助他们快速筛选和分类候选人。
求职者长期以来一直不喜欢这些工具,这些工具有时会因为简历中的空白或未能包含与不精确的工作要求相关的关键词而筛选掉一些人。哈佛商学院教授约瑟夫·富勒2021年的一项研究发现,自动化决策软件将超过1000万工人排除在招聘讨论之外。
立法者也越来越关注软件中潜在的偏见。包括华盛顿特区、加利福尼亚和康涅狄格在内的许多城市和州已经提出了监管这些工具或强制披露的法律,白宫也提出了“人工智能权利法案蓝图”。由于最近几个月强大的新生成式人工智能工具如ChatGPT的发布,担忧有所增加。
算法歧视已在多个案例中被记录在案。一个被广泛引用的例子是,大约十年前,亚马逊开发了一款招聘算法,该算法分析了来自顶级软件工程师的十年申请资料,然后寻找背景与之相似的候选人。但由于那些年大多数申请者都是男性,算法迅速降低了女性申请者的评分,尤其是那些在简历中使用特定术语或毕业于某些女子学院的女性。
亚马逊在意识到问题后停止了该程序的使用。“该项目仅作为试验性探索,且始终在人工监督下运行,”一位亚马逊发言人表示。
NYC 144法案于2021年在纽约市议会通过,但因议会考虑公众意见(包括许多雇主和技术供应商的反对)而推迟了近两年。BSA(代表微软、Workday和甲骨文等大型软件公司的组织)曾游说要求减少报告要求并缩小需接受审计的使用范围。
该组织提出的部分修改建议被采纳,但BSA仍对现行法律的某些条款持反对意见,并计划与美国及全球政策制定者合作,“建立基于共识的风险管理方法和监管模式,这些方法应比NYC 144中看到的更具建设性和持久性,”BSA副总裁亚伦·库珀在一份电子邮件声明中表示。
写信给劳伦·韦伯,邮箱:[email protected]
刊登于2023年7月6日印刷版,标题为《纽约市开始规范用于招聘的人工智能》。