ChatGPT,生成式人工智能工具可能泄露企业机密,网络安全公司警告 - 彭博社
Marissa Newman
摄影师:Gabby Jones/Bloomberg使用生成式人工智能工具如ChatGPT的公司可能会将机密客户信息和商业机密置于风险之中,根据以色列风险投资公司Team8发布的一份报告。
新型AI聊天机器人和写作工具的广泛采用可能会使公司容易受到数据泄露和诉讼的威胁,该报告在发布之前提供给彭博新闻。担心的是,聊天机器人可能会被黑客利用来访问敏感的公司信息或对公司进行操作。还有担忧,现在输入到聊天机器人中的机密信息可能会被AI公司在未来利用。
包括微软公司和Alphabet Inc.在内的主要科技公司正在竞相增加生成式AI功能,以改进聊天机器人和搜索引擎,他们正在训练模型,从互联网上抓取数据,为用户提供一个一站式解决方案。如果这些工具输入了机密或私人数据,将会非常难以擦除这些信息,报告称。
“企业使用GenAI可能会导致对敏感信息、知识产权、源代码、商业机密和其他数据的访问和处理,通过直接用户输入或API,包括客户或私人信息和机密信息,”报告称,将风险分类为“高”。如果引入适当的保障措施,这些风险被描述为“可管理的”。
Team8报告强调,与最近的报道相反,聊天机器人查询并没有被输入到大型语言模型中用于训练人工智能,这样的提示可能会被其他人看到。
“截至目前,大型语言模型无法实时更新自身,因此无法将一个人的输入返回给另一个人的响应,有效地驳斥了这一担忧。然而,对于未来版本的这些模型的训练来说,情况并非一定如此,”报告称。
该文件标记了集成生成式人工智能工具中的另外三个“高风险”问题,并强调了通过第三方应用程序分享信息的威胁不断增加。微软已经在其必应搜索引擎和Microsoft 365工具中嵌入了一些AI聊天机器人功能。
“例如,在用户端,利用GenAI API的第三方应用程序,如果遭到破坏,可能会提供对电子邮件和网络浏览器的访问,并允许攻击者代表用户采取行动,”报告称。
报告称,使用生成式人工智能可能会增加歧视、损害公司声誉,或使其面临版权问题的法律诉讼风险,存在“中等风险”。
微软公司企业副总裁安·约翰逊参与了该报告的起草。微软已经在Open AI,即ChatGPT的开发者,投资了数十亿美元。
“微软鼓励安全和人工智能社区对不断发展的网络风险进行透明讨论,”微软发言人表示。
美国公司的数十位首席信息安全官也被列为该报告的贡献者。该Team8报告还得到了美国国家安全局前局长和美国网络司令部前指挥官迈克尔·罗杰斯的支持。