人工智能崛起引发算法偏见关注——《华尔街日报》
Isabelle Bousquette
偏见是人工智能算法长期存在的问题,部分原因是它们通常基于有偏差或不能完全代表服务群体的数据集进行训练。图片来源:ERIC GAILLARD/REUTERS围绕ChatGPT和其他生成式人工智能技术的热潮凸显了企业持续面临的挑战:如何避免自身AI算法中的偏见。
企业正投入大量时间和资金减少已部署算法中的偏见。科技领袖表示,从一开始就解决偏见问题比事后消除更容易且成本更低,但许多公司缺乏相关系统、流程和工具。
“这更多是一种被动而非主动的模式,“为联合国提供人工智能咨询的Neil Sahota在谈及机构应对AI偏见的方式时表示。Sahota指出,这种被动模式代价高昂,因为追溯性消除偏见是一个极其困难且昂贵的过程。
他补充道:“企业不会额外投入1000万美元去消除可能影响100或200人的一两个偏见。”
Sahota表示,偏见是AI算法的老问题,部分原因是训练数据存在偏差或不能完全代表服务群体,部分原因是构建算法的人类本身存在固有偏见。
人工智能的问题在微软公司二月份宣布将对其采用ChatGPT技术的新必应搜索引擎实施新的使用限制时凸显出来,此前用户报告称在极限测试中出现了错误答案甚至有时失控的回应。
研究发现,AI系统在识别深肤色人群(尤其是女性)面部时准确率较低;给予女性的信用卡额度普遍低于其丈夫;并且相较于白人,更可能错误预测黑人被告未来会犯罪。
审计税务咨询公司毕马威美国科技咨询主管托德·洛尔表示,部分问题在于企业未将AI偏见控制纳入软件开发周期,而网络安全领域已开始这样做。
数据与分析公司律商联讯风险解决方案全球首席信息安全官弗拉维奥·维拉努斯特指出,若企业在部署算法前预先解决偏见问题而非事后评估损害,相关问题将大幅减少。
维拉努斯特先生表示,当模型已存在偏见(尤其是复杂深度学习模型时),追溯特定答案的生成原因极具挑战性。“这绝对困难,某些情况下甚至不可能——除非能从头开始,用正确的训练数据和架构重新设计模型。“他说道。
他表示,虽然像性别这样可能引发性别偏见反应的变量很容易被剔除,但像身高这样的变量看似不明显,却可能成为性别的替代指标,因为女性通常比男性矮。
Visa公司技术总裁拉杰特·塔内贾强调,企业必须重视从源头解决偏见问题。
“人工智能的负责任伦理使用以及所需的治理与监督机制至关重要,“他说道,“正在推进AI应用的企业必须充分认识这一点,在起步阶段就将其纳入考量,因为后期追加调整将困难得多。”
塔内贾先生介绍,Visa在部署任何模型前,都会经过模型风险管理组织和专项团队的评估,测试潜在意外影响并确保模型符合公司负责任AI伦理原则。
百事公司首席战略与转型官阿西娜·卡尼乌拉指出,更完善的防护机制和标准化框架或是解决方案之一。她透露百事正联合多家大型企业建立行业框架体系,包含确保透明度、可追溯性及减少算法偏见的治理层。
卡尼乌拉博士表示,鉴于偏见风险过高,百事已避免在招聘决策等场景使用AI技术。
毕马威的洛尔先生认为,更先进的算法偏见追踪评估工具将大有助益。目前越来越多初创企业正提供相关AI管理解决方案:“这个市场正处于爆发临界点,这些公司刚完成A轮融资,未来半年内我们将看到实际应用落地。”
写信给伊莎贝尔·布斯凯特,邮箱:[email protected]