《华尔街日报》:职场中使用生成式人工智能的注意事项
Lindsey Choo
专家警告需警惕生成式AI的"幻觉"问题。插图:乔恩·克劳斯生成式AI为企业提升运营效率和生产力带来机遇,同时也伴随诸多风险。
为此,部分企业已制定工作场所使用生成式AI的规范——旨在最大化利用新工具的同时降低潜在风险。以下是部分核心准则:
务必警惕算法偏见
企业需注意,基于公开数据集训练的生成式AI模型可能反映原始材料中的人口统计偏见。
乔治城大学麦克多诺商学院副教授杰森·施洛策指出,这类偏见往往具有隐蔽性。通过对AI生成内容进行人工审核,建立员工个人与专业团队的双重检验机制,可有效降低偏见风险,确保产出内容符合企业价值观。
禁止向公共程序泄露商业机密
多数生成式AI会存储用户输入的对话和指令用于模型训练,这可能导致敏感信息在他人查询时意外泄露。
通过这种方式可能泄露的信息示例包括计算机代码、客户信息、公司会议或电子邮件往来的记录,以及公司财务或销售数据。
咨询公司Fifty Five的董事总经理艾丽西亚·阿诺德表示:“确保你输入系统的内容非常明确"是一个很好的经验法则。由于担心敏感专有信息可能泄露,一些公司已经限制使用公共生成式AI程序或禁止大多数员工使用。
务必谨慎选择使用的AI程序
与公共AI程序相比,有更安全的替代方案。咨询公司Gartner专注于AI的分析师阿伦·钱德拉塞卡兰表示,公司应尽可能使用所谓的企业级模型——通常是针对企业的付费订阅服务,为商业数据提供更多安全保障——而不是公共版本。像ChatGPT Enterprise和微软的Bing Chat Enterprise这样的程序承诺保护公司数据的隐私。
钱德拉塞卡兰说,在选择生成式AI程序时,公司应确保他们完全理解输入程序的数据将如何存储以及谁可以访问这些数据。
不要完全相信AI结果的准确性
专家表示,要警惕生成式AI的"幻觉”。幻觉是AI生成的包含虚假或不准确信息的回答,可能会误导公司内外看到它的人。“错误信息会削弱信任,“钱德拉塞卡兰警告说,而且幻觉有时看起来足够真实,以至于无法被发现。在使用AI生成的内容之前,检查信息的来源有助于减少不准确性。
或者,更进一步,钱德拉塞卡兰表示,企业可以与生成式AI供应商协商定制合同,仅使用公司提供的数据库训练AI,从而避免引入外部可能不准确的信息。
部分企业已转向开发自有专有系统,让员工能更安全地使用生成式AI。施洛策指出,在他接触过的大多数鼓励职场使用生成式AI的企业中,都已配备或正在开发保护数据的专有程序。
金融服务公司Ally Financial的首席信息、数据与数字官萨蒂什·穆图克里希南介绍,该公司的内部AI平台Ally.ai充当了公司信息与外部AI程序间的桥梁。他强调这更像是一种始终需要"人工介入"的辅助技术。
未经披露不得使用AI生成内容
施洛策认为,披露AI参与内容创作的情况对保持透明度至关重要,尤其对面向客户的员工而言。由于AI生成内容可能存在不准确或不恰当的法律风险,客户应事先知悉他们接收或使用的材料(例如广告活动内容)部分由AI生成。
务必警惕版权侵权风险
部分AI生成内容可能基于艺术家或作家的受版权保护作品,这可能引发法律问题。
早期法庭案件已驳回多起所谓版权侵权指控,美国版权局也多次拒绝AI生成艺术的版权主张,但作家群体提起的多项诉讼尚未裁决,包括旧金山地区法院正在审理的一批作家针对OpenAI涉嫌侵权发起的集体诉讼(OpenAI发言人表示无法对未决诉讼置评)。
自八月起,美国版权局已启动AI专项研究,联邦贸易委员会也对此议题表示关注,在其研究意见中特别指出"未经许可从公共网站抓取作品"引发的版权担忧。但目前针对AI使用版权材料仍缺乏明确法规。
在相关法规出台前,专家建议企业法务团队应主动筛查AI生成内容潜在的版权问题。同时应考虑向生成式AI服务商寻求法律赔偿保障。谷歌近期已与微软、Adobe共同推出生成式AI产品的法律赔偿计划
林赛·周是南加州撰稿人,联系方式:[email protected]。
出现在2023年11月27日的印刷版中,标题为《职场中使用生成式AI的注意事项》。