企业如何利用生成式人工智能?一位先行者给出了答案——《华尔街日报》
wsj
维克拉姆·巴加瓦(左)与大卫·韦克林在《华尔街日报》风险与合规论坛上探讨AI工具。图片来源:华尔街日报ChatGPT让所有人——没错,所有人——都开始讨论。
人工智能程序将如何实际应用仍是个巨大未知数。但国际律所安理律师事务所为我们提供了企业可能开始运用这类程序(及其局限)的早期范例。
在近期举行的《华尔街日报》风险与合规论坛上,本报记者萨拉·卡斯特利亚诺斯与安理律师事务所合伙人、市场创新组负责人大卫·韦克林展开对话。韦克林负责领导该律所人工智能战略的制定工作。参与讨论的还有乔治·华盛顿大学商学院战略管理与公共政策助理教授维克拉姆·巴加瓦,他探讨了围绕ChatGPT类程序的一些伦理问题。
以下是经过编辑的讨论摘录。
早期应用
**《华尔街日报》:**大卫,贵所律师已在运用基于ChatGPT的工具。您认为生成式AI有哪些机遇?
**韦克林:**我们使用的是相同的基础模型,但并非ChatGPT。我们需要在业务中安全使用它。目前仅通过部署该技术辅助任务,我们就已看到显著的生产力提升。
未来机遇将更加广阔。调整基础模型或行业基础模型的工作会减少,重点将转向让模型处理特定商业数据集。这正是其真正价值所在——开始撬动企业的知识产权价值。
**华尔街日报:**维克拉姆,您如何看待企业开发和部署生成式AI?存在哪些风险?
**巴尔加瓦:**去年11月首次接触这项技术时,我感到非常震惊。它在多个方面确实令人瞩目。
关于风险与伦理问题:首先是其输出结果可能存在的缺陷,比如准确性不足、判断存在偏见等。
其次是流程问题,例如"当企业在客服或招聘场景中使用ChatGPT时,用户同意与之互动的真正含义是什么?"
每个类别都有不同问题。如果仅从"这是个伦理问题"的单一维度看待,可能会忽略那些不明显的伦理隐患。
**华尔街日报:**生成式AI产品如OpenAI的ChatGPT和谷歌的Bard,其训练数据涵盖海量文章、图像、社交媒体帖子和实时对话。大卫,请谈谈GPT-4最令人印象深刻的特点,这项支撑聊天机器人的先进技术由微软投资的初创公司OpenAI开发。
**韦克林:**我们去年11月通过Harvey(一家专注于为律所等专业服务机构提供生成式AI的OpenAI资助初创企业)接触GPT-4并进行了试点。与之前版本相比,其差距之大令人惊叹。过去几年我们在事务所应用过许多AI技术,但它开箱即用的卓越语言能力、推理能力和理解力令人印象深刻。我从未见过类似技术,因此我们确信这是技术范式的根本转变。
这是一项如此庞大的工程,我们启动了这个极具雄心的计划,要在43个办公室的3500名律师中安全推行,并围绕此进行了大量变革管理和治理工作。我们始终确保有专家参与其中。
在使用方式上有一些关键要点,但对我们而言,这项技术如此出色,以至于延迟采用反而可能成为竞争劣势,某种程度上会削弱企业正确运用它所带来的潜力和竞争优势。
不应自动化的理由
**华尔街日报:**维克拉姆,企业在使用生成式AI(无论是ChatGPT还是其他工具)开发产品时,真正需要考虑哪些伦理问题?
**巴尔加瓦:**大部分讨论集中在这些算法可能产生不良后果的方式上。比如一个招聘算法可能导致带有偏见的结果,可能是性别歧视、种族歧视或其他问题。当然这些都是严重问题,但已有大量资源投入这些技术改进中。毫无疑问会有进步,许多问题将通过工程手段解决。
我更关注的核心问题是:“有哪些任务,即使我们能改善结果,仍然存在不应自动化的理由?”
举例来说,几个月前密歇根州立大学发生了枪击悲剧。范德堡大学皮博迪学院发布了一封声援信,信中表示"我们与密歇根州立大学社区同在",并表达了哀悼之情等等。
现在我正在改写这封信。在信的底部,写着“由ChatGPT生成”或类似的内容。许多人对于范德堡大学使用ChatGPT来生成一封与密歇根州立大学社区团结一致的公开信感到震惊。
问题不在于这封信写得不好。它文笔流畅,结构精巧等等。但即使它能达到同样好的效果,自动化地表达我们的团结似乎有些不妥。
除非是我们自己动手,否则这就不是一种真诚的团结表达。
在招聘或解雇的背景下,假设有一家公司使用这类技术来做某些解雇决定。如果我找到他们问:“发生了什么?为什么我被解雇了?”而他们回答:“嗯,你知道的,是它让我们这么做的。”这似乎缺失了一些东西。
换句话说,有一类决定在讨论中被很大程度上忽视了。因为大多数关于AI伦理的讨论都集中在“看,有这么多糟糕的结果,不准确的判断,种族主义的结果出现。”
生产力提升
**华尔街日报:**David,你们律所的律师是如何使用Harvey的,这个工具真正带来了哪些商业价值?
**WAKELING:**我们正在用它来实现无聊的生产力提升,让3500名律师每周多出一两个小时。它可以起草初稿,利用律所内大量的专业知识,比如‘给我起草一个关于随机事项X的条款’或者‘总结法律领域Y并在美国和欧洲之间进行比较和对比’。它在这方面非常擅长。
只要用户明白——他们确实明白,我们费尽心思教育他们——这可能会产生幻觉,可能会出错——只要人们理解这一点,并且总有专家在使用它时进行把关,这些生产力提升就能实现。
这就是目前可用的东西,而且非常重要。实际上,对我来说,这项技术令人兴奋之处在于我们逐步提高的生产力。这值得投入时间。
**华尔街日报:**如果Harvey真的犯了错误,谁该负责?
**WAKELING:**哦,是使用它的人。每次都有专家把关。几乎从来没有Harvey的工作成果是最终使用的成品。我想说从来没有。我从未见过这样的结果。它总是用来节省一点时间,然后有人完成它,并用正确的专业知识走完最后一英里。
**华尔街日报:**你们如何防止幻觉,并确保算法使用最正确和最新的数据?
**WAKELING:**我能想到的最好比喻是,你应该把问答功能看作是一个非常健谈、异常雄辩且见多识广的青少年。青少年不知道它不知道什么,会继续根据数学反应、基于预测给出答案,总是以同样迷人的自信给出答案。我们告诉人们这一点。我想说每个律师都知道AI幻觉是什么,而一年前情况并非如此。
未来技术的发展方向及其演进趋势让我深感着迷。因为我们以13岁少年作为类比——如今的技术正引导AI模型指向特定数据库。就像我们会说:“13岁的孩子,去安理国际律师事务所的图书馆找本书,找出支持你答案的页面,给我看看出处。”
**华尔街日报:**David,您是否预见到有一天Harvey能撰写面向安理客户的文书?届时你们会如何区分人类律师和聊天机器人的产出?
**WAKELING:**以我目前所见的技术还做不到。现有技术存在导致幻觉的固有缺陷,所以我将其视为渐进式的生产力提升工具。两年后再问我,情况或许不同,但就目前而言我看不到这种可能性。
来信请发送至[email protected]