企业希望员工信任人工智能——但别完全依赖 - 《华尔街日报》
Isabelle Bousquette
人力资源机构任仕达调查显示,尽管对AI技能和部署的需求激增,过去一年仅有13%的员工获得过相关培训。图片来源:陈俊青/新华社/Zuma Press对部署生成式人工智能的企业而言,“人类参与循环"的理念至关重要**——**但让员工充分理解这一角色却充满挑战。
企业表示正持续推进AI应用场景落地,特别是在代码生成、文档或录音摘要等领域,尽管他们承认该技术可能存在结果不准确、偏见及所谓幻觉问题。
企业称正通过人工核查AI产出来应对这些挑战,但也担忧员工可能逐渐松懈,或未能充分理解其应承担的监督职责。
“如果AI连续五次运行正常,人们很容易产生’不复查又能怎样’的心理,“浸信会健康集团人工智能助理副总裁罗莎莉亚·通加拉扎表示。
目前企业正在制定新规程,并敦促AI工具供应商在工作流程中内置复核机制,旨在避免未经审核的AI生成内容出现在公司文件、代码或客户材料中可能引发的法律风险。
在浸信会健康中心,通加拉扎提到,当AI用于总结医生与患者之间的录音对话时,她相信医生们会认真复核,因为他们的职业声誉与此息息相关。但她补充说,在业务的其他领域,如运营或呼叫中心,AI可能被用来总结客服通话,这些地方存在更大的风险,因为复核可能不够严格。
根据人力资源机构任仕达的一项调查,尽管对AI技能和部署的需求巨大,过去一年中只有13%的员工接受过任何AI培训。
通加拉扎表示,针对某些应用场景,医疗系统可能会考虑强制实施签字确认等形式的复核机制,并对未完成签字确认的情况设定相应后果。
在企业财务和人力资源云应用提供商Workday,首席技术官吉姆·斯特拉顿表示,他听到许多客户反馈,生成式AI工具需要让用户明确感知其存在,并提供复核的机会。
Workday在开发AI工具时的部分优先事项包括确保终端用户清楚意识到他们正在处理生成的内容。斯特拉顿说:“在将结果投入使用前,他们需要检查结果,确保其恰当、安全且正确。”
水晶和珠宝制造商施华洛世奇的首席数字和信息官莉亚·松德雷格表示,尽管对AI模型的信任度在提升,但最终批准权应掌握在人类员工手中。她补充说,检查输出结果必须成为员工使用AI框架的一部分。
目前,尚无官方法律监管强制规定企业需如何及在哪些环节安排员工复核AI输出,各公司正根据自身系统和工作流程制定方案**——**不过IT服务与咨询公司TEKsystems Global Services高级副总裁Ricardo Madan表示,确保某种形式的核查机制至关重要。
“如果没有人进行事实核查、监管并将结果与现实对照,就会错漏百出,“Madan说,“我们正与客户共同构建这一流程。”
Salesforce首席信息官Juan Perez指出,随着技术日益完善精准,全面复核的必要性也将降低。
Perez表示某些领域(如医疗)可能永远需要人工核查,无论模型多么先进。
他补充道:“但我认为未来某些应用场景中,当模型足够可信、智能且强大时,可能就不再需要人工核查。”
联系记者Isabelle Bousquette请致信[email protected]
本文发表于2023年9月9日印刷版,标题为《企业依赖员工协助AI事实核查》。