管理者在引入人工智能时常犯的五个错误及如何修正——《华尔街日报》
Katherine C. Kellogg and Melissa A. Valentine
要让员工接受人工智能,首先将其应用于他们最不喜欢的任务上。更大的变革将随之而来。插图:Kathleen Fu人工智能有潜力彻底改变企业决策——增加收入、降低成本并提升质量。
前提是员工愿意接纳它。
AI工具通过算法做出长期以来专属于人类的决策。但它们正面临一个巨大障碍:那些原本做决策的人类。让员工真正使用这些技术,将与确保系统正常运行同等重要。
要理解这些人为挑战的难度及解决之道,研究我们两人长期深耕的时尚产业颇具启发性。算法能预测新潮流、管理供应链、制定最优定价策略并减少浪费。但最根本的问题是,这些技术常与行业基石——设计师、买手、策划师、工厂工匠和一线商品专员——的传统经验产生冲突。
然而我们的研究表明,这种冲突并非不可调和。以下是时尚行业管理者常犯的五个错误——以及如何避免它们。
错误一:过度关注算法影响最大的领域
急于让AI投资快速见效的心态可以理解。如果管理者认为算法能改变业务,何必等待?
某零售企业的领导者曾希望引入算法系统,用于业务中最关键的环节:帮助服装买手更精准预测下一季流行款式。
但问题在于,这个系统可能剥夺买手们最热爱的工作——挑选新款的创意过程。这正是他们成为时尚买手的初衷:他们享受飞赴全球时装周T台挑选最新单品、与设计师会面、搭配造型、触摸面料,将时尚嗅觉与商业头脑结合,豪赌下一季爆款的成就感。
因此,项目负责人转而询问买手们最不喜欢的工作环节。结果发现是将审美构想转化为具体采购计划的繁琐流程。于是团队用自动化系统处理这些机械工作,反而激发了买手的使用意愿。
随着买手们逐渐适应系统,项目组发现他们最终愿意更广泛地使用该系统——包括最初抵制的环节。例如,当系统开始自动计算采购计划的财务预测、生成订单后,买手们甚至开始将其用于创意工作,如下季度的款式筛选。
第一课:首先聚焦于员工最不喜欢的工作。更大的改变将随之而来。
错误2:当管理者引入算法技术时,他们主要解决技术摩擦与创新恐惧
在关注技术和情感挑战时,管理者可能忽略了同样重要的一点:算法如何改变员工对自我的认知。具体而言,员工认为算法会把他们变成缺乏灵感的极客。
最成功的人工智能应用会推动身份转变。例如,当互联网技术颠覆图书管理员的核心工作时,他们将身份从“搜索专家”转变为“人与信息的连接者”。
同样,在我们研究的零售公司中,即使时尚买手开始使用新算法系统挑选新款,项目负责人注意到他们倾向于推翻一些更具战略性的建议——比如大量囤积某些经过充分验证的款式。
为什么?因为系统将买手的角色从“精明的赌徒”转变为“利润优化者”:系统不再让他们押注单一系列,而是要求尝试多种风格组合以发现最可能盈利的组合。买手们抗拒这种优化者的新角色。直到管理者注意到有些买手自称为“远见者”,情况才有所改变。
当管理者们提出新系统能帮助采购员“构想新系列”,并让他们成为“战略家”时,采购员的抵触情绪逐渐消退。他们开始采纳更多之前被自己否决的建议。例如,过去他们不接受那些不符合传统采购方式的推荐方案。但当他们开始以“战略家”自居后,便遵循系统建议大量储备经市场验证的款式(如特定类型的深色水洗牛仔裤),同时减少高风险款式(如麂皮运动裤)的采购量。
经验二:切勿忽视自我认同的作用,即便这种认同看似只是语义层面的改变。
误区三:仅强调算法如何实现收益和利润最大化
向员工说明算法能提升利润本无可厚非——毕竟员工也希望为公司创收,尤其当这关乎他们的职业保障和薪资水平时。
但仅凭这点可能不足以说服员工克服维持现状的惯性,去冒险改变已建立的模式。
零售商品经理开发定价优化算法时,最初着重强调算法如何实现最优价格下的销量最大化。但当管理者转而突出算法能帮助采购员规避失误(而非单纯提高利润)时,推行效果显著提升。这与行为金融学的发现不谋而合:心理上,损失带来的痛苦感约是获得收益快感的两倍。通过让商户相信定价算法能减少降价清仓(这往往意味着决策失误)带来的心理折磨,新系统的采纳率大幅提高。
第三课:算法能帮助员工避免失败的承诺,比增加利润的潜力更具说服力。
错误四:利用算法技术为员工提供实时绩效反馈
除了部署算法预测工具进行趋势预测外,企业还利用这些技术以最快速度将产品推向市场。
例如,为满足快时尚需求,服装厂经理引入了追踪技术,实时持续反馈车间工人生产特定产品的速度及是否达标。这种技术确实加速了生产——某种程度上。在某家服装厂,制作男裤的工人欢迎这项技术,称其将枯燥工作变成了游戏。许多人因挑战个人最佳纪录而提高了产量。
但制作更复杂夹克的工人表示,该技术无法准确衡量其工艺水平。实时计分反而挫伤了积极性,导致生产率下降。
第四课:追踪技术并非万能药,企业需因地制宜使用。
错误五:过度解释算法原理
由于机器学习算法如同黑箱,不揭示其建议依据,终端用户常对与其直觉相悖的建议犹豫不决。计算机科学家试图解释系统决策逻辑以消除员工顾虑。
但这可能适得其反。这种解释可能恰好提供了足够的信息让他们拒绝接受建议。实际上,他们真正想了解的是,像他们这样的人——拥有相似知识背景和经验、值得信赖的人——参与了这些建议制定方式和原因的过程,并对算法性能进行了严格测试。
例如,在时尚界,配货员每周决定将每种款式和尺码的商品分配多少到每家门店,以最大化销量并最小化缺货情况。关键的是,在我们研究的公司中,部分配货员参与了算法系统的设计和开发。因此,当系统推出时,配货员表示他们愿意信任新系统的建议,尽管他们并不理解每个建议背后的具体逻辑。他们在使用时并不需要解释建议的原因,因为他们知道一些同行在开发过程中与开发者大量合作,确保模型的准确性。
经验五:让受尊重的利益相关者参与技术如何生成建议以及测试其性能的过程,对最终用户来说,可能比解释技术为何做出特定建议更为重要。
凯洛格博士是麻省理工学院斯隆管理学院的管理与创新教授,并担任工作与组织研究系主任。瓦伦丁博士是斯坦福大学副教授,同时也是斯坦福大学 以人为本人工智能研究所的教职研究员。联系方式:[email protected]。