ChatGPT能取代你的财务顾问吗?目前还不行,但等等看——《华尔街日报》
Shlomo Benartzi
ChatGPT及其竞争对手已经达成了一些令人瞩目的里程碑——它们能通过律师资格考试,还能协助解决医疗案例。
那么,这些AI工具现在就能取代你的财务顾问了吗?
乍看之下,AI顾问的优势显而易见。专业财务咨询费用高昂,许多美国人负担不起。AI可以降低这些成本,让所有人随时获得智能化的个性化指导。AI还能扩大顾问覆盖的财务决策范围,提供更全面的建议。如今人们不仅需要将ETF纳入投资组合的建议——他们还要在储蓄、保险和债务管理等方面做出艰难抉择。
但尽管AI在某些方面能做得和财务顾问一样好,有时甚至更出色,它目前还无法取代人类顾问。
要理解其中原因,让我们看看有效财务咨询的五个关键特质,评估AI当前的表现,以及它需要如何改进才能达到目标。
1. 纠偏能力
先说坏消息。
财务顾问提供的重要价值之一就是纠偏,即帮助客户避免由行为倾向导致的昂贵错误。比如人们倾向于过度重视短期损失而投资过于保守,即便他们的投资期限长达30年或更久。在我与理查德·塞勒共同进行的研究中,看到一年期投资回报图表的人将40%的资产配置为股票,而看到长期图表的人配置了90%——尽管两组投资者都是为长期投资。
一位优秀的顾问能帮助人们做出符合长期目标的财务决策。他们引导客户远离那些短期图表或手机上不断弹出的最新市场波动,协助客户选择与其实际投资周期相匹配的投资项目。
遗憾的是,加拿大皇后大学杨晨团队的工作论文显示,ChatGPT表现出许多与优秀顾问努力规避的行为倾向和认知偏差。例如,人类在遭受损失后往往会选择更高风险选项以求翻本——这在拉斯维加斯被称为"加倍下注"。ChatGPT同样存在这种倾向,可能导致代价高昂的错误。若投资者在加密货币崩盘后损失惨重,ChatGPT可能会认为他们应该加仓加密货币,进一步押注高风险资产。
情况甚至更糟。因为AI工具还存在严重过度自信问题——它们并非偶尔出错,而是经常自认为正确。这不仅无法自我修正,还会给客户制造虚假安全感,从而放大既有偏见。
要提升AI顾问的表现,我们需要建立元规则(即管理其他规则的规则)来克服这些偏差。可行方案之一是让AI在推荐具体金融操作时,必须同步审查该操作可能存在的错误理由。这就像内部审计机制,迫使系统审视可能遗漏的因素。
元规则之所以经常必要,是因为这些AI工具的学习方式。它们被称为大型语言模型(LLM),通过从互联网抓取的海量文本数据集进行训练。由于互联网往往以未经过滤的形式反映人性,这类软件会折射出人类许多低级的冲动和倾向。
好消息是,通过应用元规则,AI几乎肯定比人类更容易消除偏见。虽然我们无法直接编辑大脑中的"软件",但可以修正AI模型。
2. 共情力
顾问的第二个关键素质是共情力。想象一位对市场波动感到紧张焦虑的投资者。研究表明,投资者的情绪底色会对其财务决策产生重大影响——恐惧会驱使他们规避风险,而愤怒则导致更冒险的行为。优秀顾问的职责就是在市场动荡时提供安抚支持,避免恐惧等情绪损害长期财务前景。
值得庆幸的是,ChatGPT在共情方面表现卓越。最近一项研究比较了ChatGPT与人类医生对网络论坛真实患者提问的回复。由医疗专业人员组成的评审小组从信息质量和共情力两个维度评估这些回答。
结果AI取得了压倒性胜利。医疗专家认为ChatGPT提供"良好或优秀"信息的概率是人类的近4倍。而在共情力方面,ChatGPT的得分更是人类的近10倍——45%的AI回复被评为具有共情力或高度共情力,而医生回复仅占4.6%。
这些结果表明,人工智能已能出色完成部分财务顾问的关键任务。虽然顾问在市场调整时未必总能抽出时间或具备能力安抚客户,但AI技术能帮助他们更具人情味,至少能放大其人性化服务。例如,下次市场大幅下跌时,顾问不必仅限于给几位高净值客户打电话,AI可针对每位客户提供共情式回应。若某客户每日查看投资组合,AI既能展示长期市场趋势的安抚性数据,也能说明择时交易的高昂代价。
3. 准确性
顾问的另一重要品质是确保事实准确。即便AI能消除偏见,其建议仍需基于对投资、通胀、税收等要素的精确表述。
更多坏消息:当前AI工具极不可靠且错误频出。例如当我让某主流AI工具比较先锋与富达纳斯达克指数基金时,它给出了一份聚焦长期业绩和管理费率的漂亮分析——唯一问题是选错了分析标的,误用先锋标普500基金和富达房地产基金的数据作答。其回答既充满自信又完全谬误。
此问题可通过插件或外部工具大幅改善,即让AI调用辅助功能弥补短板。就像谷歌回答数学题时会同时启动计算器,AI工具也应如此。除计算功能外,AI顾问还应接入晨星等可靠金融数据库,确保其模型与建议基于真实市场数据。
“人们常常误以为语言模型能包办一切问题,而非智能应用中的组件。”微软研究院高级首席研究员丹·戈尔茨坦表示,他专攻人工智能与人机交互领域,“金融界优化的系统和海量数据存储不会被AI取代——它们将被AI调用。”
相比人类顾问,AI或许更容易监控利益冲突。插图:道格·柴卡### 4. 最佳利益原则
顾问必须以实现客户最佳利益为行动准则。例如,他们不能仅因佣金更高就推荐费用更贵的基金类别。理论上,AI产生利益冲突的可能性更低——与人类不同,ChatGPT不会试图最大化自身收入。
但这仅是理论推演,我们并不清楚AI的实际表现。一种可能是它会面临与人类相似的问题。例如,研究发现投资者更倾向于购买营销费用更高的共同基金,即便这些费用会通过更高佣金降低整体收益。虽然这类基金很可能投资价值更低,但消费者仍受广告影响。AI可能陷入相同陷阱,因为广告投入更大的基金在AI数据库中会显得更突出。
鉴于这种不确定性,AI架构师审核数字顾问的建议至关重要。这类似于一条元规则,只不过其目标不是消除偏见,而是消除利益冲突。
幸运的是,相比人类顾问,AI可能更容易监控利益冲突。如果软件开始建议高费用投资或高利率抵押贷款,而实际上存在更便宜的替代方案,AI工具甚至可能自动纠正,就像拼写检查修正错别字一样。
Goldstein认为关键在于强调透明度。“当决策在幕后做出时,我们只能猜测这些问题,“他说。“但如果每个决策的输入和输出都被记录,就可以进行前所未有的检查。”
5. 一致性
好的财务建议应该具有一致性。也就是说,如果同一个客户带着相同的投资组合去找不同的顾问,他们应该提供类似的建议,专注于那些经过时间检验的原则。
然而研究表明,顾问们难以提供始终反映客户目标、情况和偏好的建议。最近一项研究显示,当顾问去世或退休后,客户被随机分配给新顾问时,他们往往会投资于费用和风险特征不同的基金。这并不是因为他们的投资偏好突然改变——而是因为新顾问将自己的信念强加于他们的投资组合。如果新顾问为自己的个人投资组合选择了高风险投资或昂贵基金,他会假设客户也偏好这些。
这应该是一个可以解决的问题。人工智能建议应能通过确认向具有相似财务需求和偏好的客户提供相同建议来实现一致性。一旦AI工具实现一致性,软件应向处于相同情况的客户提供相同的建议,就像Netflix根据相同的观看历史向人们推荐相似内容一样。
未来可能的样子
在AI能成为有效的财务顾问之前,还需要很多改进。尽管如此,很明显AI将在财务建议的未来扮演重要角色。
这个未来可能是什么样子?
一个潜在的模型来自医疗领域,在那里智能软件和医生多年来一直作为混合团队合作。特别是,医生越来越依赖AI工具来帮助他们提高护理质量,因为这些工具可以生成一长串可能的诊断,减少误诊或缩短诊断时间。
当然,仍然需要人类医生来筛选ChatGPT生成的可能诊断的扩展列表,并选择最佳诊断。这表明AI可以帮助我们扩展思维,即使它实际上无法自己找到答案。
虽然没有关于混合财务建议质量的研究,但我推测,只要人类学会如何有效地与AI合作,混合模型将会胜出。一个原因是被称为算法厌恶的行为倾向——人们倾向于拒绝自动化软件,除非它近乎完美。这意味着大多数客户会更喜欢由专业人士监督的AI提供的财务建议,就像人们期望飞行员在驾驶舱监督自动驾驶仪一样。
更重要的是,混合方法还可能显著增加获取建议的途径。我希望人类顾问能利用人工智能来帮助服务更多人。
对于那些仍负担不起人类顾问服务的美国人呢?我相信只要我们能解决涉及准确性和去偏见的关键问题,人工智能可以24/7全天候提供建议。
如果你是金融顾问,我不会担心ChatGPT会抢走你的工作。(自动驾驶仪并没有让飞行员失业。)相反,我会专注于如何利用这项技术为更多人提供更好的建议。
什洛莫·贝纳茨是加州大学洛杉矶分校安德森管理学院的名誉教授,也是《华尔街日报》专栏的常驻撰稿人。联系方式:[email protected]。
本文发表于2023年10月30日印刷版,标题为《人工智能能取代你的财务顾问吗?暂时不能。但请拭目以待》。