将人类偏见从我们的机器中去除的数字活动家 - 彭博社
Arianne Cohen
插图:萨姆·克尔当乔伊·布奥拉姆维尼9岁时,她看到了一部关于Kismet的电视纪录片,这是一种由麻省理工学院建造的社交机器人,可以进行面对面的互动。对这位年轻的未来科学家来说,这项技术简直是魔法。她被迷住了,并决心去理解它。
但在2010年,当她还是乔治亚理工学院的本科生时,布奥拉姆维尼遇到了一个算法障碍。“为了让社交机器人能够与人类社交,它必须能够检测到那个人的脸,”她说。她在课堂上实验的机器人能够检测到她室友的浅色皮肤的脸,但无法检测到布奥拉姆维尼的。第二年,在香港的一个实验室里,这种情况再次发生。“我心想,你知道,我以为这个问题现在应该已经解决了,”她说。
彭博社商业周刊没有被监禁的人。寻求庇护者占据了拜登承诺关闭的监狱美国正在用寻求庇护者填满臭名昭著的前监狱大学橄榄球需要向大联盟学习一课那些销售比职业选手更多棒球棒的网红兄弟们快进六年,经过麻省理工学院和牛津大学的学位,她在罗德奖学金的支持下就读,并在赞比亚获得了富布赖特奖学金。布奥拉姆维尼现在是算法公正联盟(AJL)的创始人,这是麻省理工学院媒体实验室的一个倡议,旨在让人们意识到看似中立的计算过程中的微妙偏见。如今,大多数人工智能系统需要在大型数据集上进行训练,因此如果你的面部识别数据主要包含白人面孔,那么你的程序就会学习识别这些面孔。程序员们通常在代码库中分享他们的工作,这意味着一个有偏见的算法可以轻易地从亚特兰大传播到香港。
Buolamwini 为机器偏见问题提供了急需的人性化视角,Solon Barocas 说,他负责公平、问责和透明度在机器学习中的研究,这是学术界在该主题上的首要会议。“这个领域可能非常理论化,但 [Buolamwini] 真的让人感受到经历这种偏见的可能性。那些使用这些技术的公司可以预期,除非他们充分关注这些问题,否则偏见将会发生。”
AJL 正在早期阶段开发工具,以帮助编码人员检查面部识别、医疗诊断、大数据分析和其他系统中的偏见。例如,一个评估信用worthiness的模型可能会部分基于申请人的邮政编码来评估抵押贷款申请人——这是一个客观的数据点,但仍然反映了根深蒂固的歧视。Buolamwini 的 2016年11月的TEDx演讲 自TED在3月发布以来,已经获得超过695,000次观看,而在1月,她击败了7,300名申请者,赢得了由21世纪福克斯(制作了电影 隐藏人物)、百事公司和纽约科学院创建的“寻找隐藏人物”专业资助。她的抱负依然很大。“我们正在使用面部分析作为一个典范,展示我们如何在第一时间包含更多包容性的训练数据,”她说。“这些基准可以广泛应用。”