AI搞砸了他们的头像照——《华尔街日报》
Katie Mogg
由人工智能生成的职业肖像照正在年轻职场人中流行。但部分有色人种女性表示,这项技术对她们频频出错——提亮肤色、弄乱发型甚至改变脸型。
王女士表示结果令她震惊,因为她输入的指令是"将原图女孩处理成专业的领英资料照片"。
“整体效果完全变成了白种人模样,“这位亚裔美国人说道。
Playground AI创始人苏海尔·多希表示,该服务并非专为职业肖像设计:“如果用户抱此期待,恐怕会失望。”
身体与面部失真
随着简历和职业社交媒体资料开始向Instagram风格靠拢,许多职场人尝试打造完美肖像照。聘请专业摄影师并确保妆发顶级配置,花费轻松突破1000美元。
如今只需12-50美元,人们就能将自拍等照片上传至各类AI平台。据AI公司创始人介绍,这些模型会基于上传照片及数百万张带文字描述的训练图像,生成用户在专业场景中的形象。
问题在于,许多黑人、拉丁裔和亚裔女性遭遇的AI失误,已远超技术常见缺陷(如生成过多牙齿或六指)。
38岁的丹妮尔·德鲁伊特-威廉姆斯是新奥尔良一名专注于多元、公平与包容领域的专家,她使用了名为AI SuitUp的服务。她表示,AI生成的照片缩小了她的鼻子并提亮了肤色,这让她感到惊讶。
“这更像是个滑稽的玩笑,“她说,“也向我证明了这类技术——尤其是应用于非白人群体时的适应性——还处于多么初级的阶段。”
AI SuitUp创始人西蒙·雷斯泰利指出,种族和性别偏见已深植于许多AI平台的基础技术中。例如,像AI SuitUp这样的平台所训练的在线医生照片多为男性形象。若不进一步优化,这些素材会导致AI生成照片出现偏差。他强调需要更关注输入模型的数据和照片质量,随着消费者对产品要求的提高,这种改进已在发生。
“我相信业界会给予更多重视,“他表示。
失真的黑人发型
“这项技术推出时,黑人群体似乎完全未被纳入考量范围,“她说道。
Secta Labs创始人马可·雅克称其公司正全力修正AI的缺陷。该实验室近期推出了新版技术,允许用户在注册时选择种族标识。他解释道,这样AI就能调用更精准的种族专属基础模型来生成人像照片。
“总不能说’我的客户是专业人士,但肤色不符合要求’吧?这简直荒谬,“他直言。
贾克定期监控客户在社交媒体上发布的关于其成果的帖子。据贾克和他的几位客户称,当客户体验不佳时,他通常会主动联系以收集更多反馈,并提供退款或免费的新头像服务。
北卡罗来纳州罗利市的联邦快递人力资源策略师索菲亚·卡特表示,她最近与Secta Labs的合作体验很积极。虽然人工智能未能正确生成她的小辫发型(一种由数百条细密脏辫组成的发型),但她对结果中呈现的其他多种黑人发型感到满意,包括玉米辫、爆炸头和扭结辫。卡特称她获得了至少100张"可用且惊艳的头像”。
哈里斯曾用这些成果在网上向他人展示自己的经历,但没有一张适合作为个人资料照片。她现在计划花费数百美元请专业摄影师拍摄头像,而非依赖人工智能工具。
根本问题
维拉公司首席执行官利兹·奥沙利文指出,人工智能图像生成器通常基于互联网"数据大杂烩"构建的基础模型,这些模型反映并延续了历史上关于人种的性别偏见。该公司正在开发帮助AI企业控制模型行为的软件。她表示,单纯反映网络内容可能导致有色人种获得一些怪异的结果。
“如果不投入时间、精力以及资金来精心策划训练数据,并验证这些关联性是否存在,那么你得到的只是输入内容的直接反映。问题正是由此产生,“奥沙利文解释道。
虽然无法完全消除人类偏见,但奥沙利文表示,企业可以通过定期手动更新这些平台训练所用的数据,来防止偏见渗入产品。
许多AI图像生成服务使用的开源基础模型由Stability AI公司所有。包括雅克和雷斯特利在内的多位AI服务创始人指出,Stability AI的模型似乎采用了固化种族及其他偏见的数据集。
该公司声明正在努力解决这些偏见问题。7月26日发布的最新模型版本SDXL 1.0,应能提升所有种族和民族背景人群图像的准确性。新模型生成的图像在色彩、光线及阴影表现上更为生动精确。
“所有AI模型都存在训练数据集固有的偏见,“公司发言人在书面声明中表示,“我们计划针对不同国家文化训练开源模型,以缓解通用数据集中代表性失衡导致的偏见。”
顶部图片来源:王罗娜、Playground AI、娜塔莉·沃尔顿、克里斯汀·科克利摄影、Secta实验室、妮可·哈里斯、Secta实验室
联系记者凯蒂·莫格:[email protected]
更正声明妮可·哈里斯通过人工智能生成的部分肖像被添加了眉心贴(bindi),尽管她并非印度教徒。本文早期版本误称其不是印地语使用者(已于8月8日更正)。
出现在2023年8月9日的印刷版中,标题为《AI搞砸了他们的头像》.