《华尔街日报》:领英测试生成式AI功能,用于处理员工及供应商提出的网络安全问题
Catherine Stupp
领英发现,员工通过聊天机器人获取问题回复的响应时间约为5秒或更短,而人工客服响应则需要约15分钟。图片来源:Justin Sullivan/Getty Images领英正在测试生成式人工智能如何帮助员工和外部供应商在几秒内获取网络安全政策答案,此举有望缩短商业交易或实施工具决策的等待时间。
这家微软旗下的职业社交平台开发了一款聊天机器人,专门解答员工关于网络安全的疑问。领英安全团队今年耗时约四个月,基于OpenAI大语言模型构建了该聊天机器人的初版,近期开始内部实验。公司首席信息安全官Geoff Belknap表示,领英正与供应商测试类似工具。
据公司发言人透露,聊天机器人对员工问题的平均响应时间约为5秒以内,而人工协助需15分钟左右。初期测试显示聊天机器人准确率约达90%。
Belknap指出,这款新工具通过加速网络安全问答流程,间接助力市场营销、销售及产品管理等其他团队。
“安全必须成为业务差异化因素,安全必须成为你业务增长战略的一部分,”他表示。贝尔克纳普称,他正在探索生成式AI如何能以其他方式帮助其网络安全团队保护公司抵御黑客攻击,例如通过检测恶意软件。
自去年生成式AI出现以来,其他大公司的网络安全负责人一直在尝试使用它。玩具制造商美泰正在试验利用生成式AI帮助网络安全员工完成解析大型数据集等繁琐任务。但一些公司因安全风险已禁止或限制员工使用生成式AI。三星在4月份员工向该平台泄露敏感信息后,暂时禁止员工使用OpenAI的ChatGPT。
卡内基梅隆大学数字媒体与营销教授阿里·莱特曼表示,那些尝试生成式AI的网络安全负责人需要加倍努力,确保员工审查所有结果,并提供有关风险的培训。
“首席信息安全官们需要保持警惕,”他说。
贝尔克纳普称,网络安全和技术团队以外的LinkedIn员工有时难以理解公司安全政策允许的内容。他表示,聊天机器人使员工更不可能跳过必需的安全步骤,因为它加快了流程。“我们的内部客户非常喜欢通过这种方式快速、简单地回答问题,因为它限制了你现在必须与专家会面讨论的事项数量,”他说。
据公司发言人透露,当聊天机器人的最终版本发布时,LinkedIn计划追踪其与员工的互动中有多少比例几乎或完全不需要人工参与。
约十几名LinkedIn网络安全员工负责解读内部政策,并确保其他部门的同事正确执行。Belknap表示,该聊天机器人有助于确保员工获得一致的查询答复。
LinkedIn使用类似的人工智能工具帮助供应商和商业伙伴更快、更一致地获取安全信息。通常,合规专家需要完成冗长的问卷后,公司才会同意合作。Belknap说:“如果我们给出的答案不一致或不完整,可能会导致交易延迟数周或数月,甚至可能导致交易失败。”
Belknap表示,生成式人工智能可以减轻员工压力,帮助处理重复性、琐碎的任务,让员工腾出手来做更具挑战性的工作。但目前,员工需要监督其运作,确保它不会产生诸如提供错误信息等问题。
“风险仍然很高,”他说,“我不希望我的人工智能在与客户交谈时给出种族主义或错误的答案。”
联系Catherine Stupp,邮箱:[email protected]
本文发表于2023年10月26日的印刷版,标题为《LinkedIn测试人工智能处理安全问题》。