AI威胁和金融行业的好处在FS-ISAC文件中概述-彭博社
Sana Pashankar
一家银行在抵押贷款决策中使用了有偏见的人工智能输出。一家保险公司的人工智能生成了种族同质化的广告图片。人工智能系统的用户抱怨体验不佳。
这些只是金融机构在试图拥抱新兴技术时人工智能可能带来的潜在风险之一,根据周四发布的一系列论文。这些论文由FS-ISAC发布,这是一个在全球金融机构之间分享网络安全情报的非营利组织,还强调了其他一些陷阱,包括深度伪造和“幻觉”,即当大型语言模型提供错误信息并将其呈现为事实时。
尽管存在这些风险,FS-ISAC概述了人工智能对金融公司的许多潜在用途,比如改善网络安全防御。该组织的工作概述了人工智能为银行、资产管理公司、保险公司和其他行业提供的风险、威胁和机会。
“它汇集了我们的最佳实践、我们的经验、我们的知识,并结合了其他论文的见解,利用了其他论文的见解,”FS-ISAC的战略与创新副总裁迈克·席尔弗曼说道,FS-ISAC代表金融服务信息共享与分析中心。
尽管在金融领域,人工智能被用于恶意目的的方式相对有限。例如,FS-ISAC表示,黑客已经通过ChatGPT等大型语言模型精心制作了更有效的网络钓鱼邮件,旨在欺骗员工泄露敏感数据。此外,深度伪造音频已经欺骗客户转账资金,席尔弗曼说。
FS-ISAC还警告称存在数据污染的问题,即将输入AI模型的数据操纵,以产生不正确或偏见的决策,并出现了可以用于犯罪目的的恶意大型语言模型。
然而,据报告称,这项技术也可以用于加强这些公司的网络安全。Silverman表示,AI已经显示出在异常检测方面的有效性,即在计算机系统中识别可疑的异常行为。此外,该技术可以自动化日常任务,如日志分析,预测潜在的未来攻击,并分析来自社交媒体、新闻文章和其他公共来源的“非结构化数据”,以识别潜在的威胁和漏洞。
为了安全地实施AI,FS-ISAC建议对这些系统进行严格测试,持续监控它们,并在发生事故时制定恢复计划。该报告提供了关于公司可以采取的两种路径的政策指导:一种是采用技术的宽容态度,另一种是更谨慎的态度,对AI的使用施加严格限制。报告还包括供应商风险评估,提供了一份问卷,可以帮助公司根据供应商对AI的潜在使用来决定选择哪些供应商。
随着技术的不断发展,Silverman预计这些文件也将得到更新,以在关注和不确定性的时代提供行业标准。
“整个系统建立在信任之上。因此,工作组提出的建议是保持这种信任的事项,”Silverman说道。