与AI聊天机器人分享个人信息安全吗?须知事项 - 《华尔街日报》
Heidi Mitchell
想象一下,你将与放射科医生的会议笔记粘贴到一个人工智能聊天机器人中,并要求它进行总结。后来,一个陌生人向同一个生成式AI聊天机器人询问关于癌症的担忧,而你们本应私密的对话内容作为回应的一部分被泄露给了该用户。
随着生成式AI聊天机器人的普及,人们对这种潜在隐私泄露的担忧日益加剧。这里的关键问题是:与这些聊天机器人分享个人信息安全吗?
简而言之,你分享的信息总是存在以某种方式暴露的风险。但有一些方法可以降低这种风险。
要理解这些担忧,有必要了解这些工具是如何被“训练”的——它们最初是如何从互联网和其他来源获取大量信息,并能够继续从与用户的互动中收集信息,从而使它们变得更智能、更准确。
因此,当你向AI聊天机器人提问时,它的回答部分基于那些早于互联网数据使用和隐私规则出现之前的材料。即使是更近期的来源材料,也充斥着散落在网络上的个人信息。
这为私人信息被各种生成式AI聊天机器人的训练材料吸收提供了大量机会——这些信息可能无意间出现在他人与聊天机器人的对话中,或被恶意行为者通过巧妙的提示或问题故意窃取或泄露。
卡内基梅隆大学布洛克技术与社会中心学术主任、海因茨信息系统与公共政策学院院长拉玛亚·克里希南表示:“我们知道这些模型是在海量信息基础上训练的,这些信息可能且很可能包含敏感数据。”
克里希南指出,一个主要问题是缺乏独立审计来验证训练数据来源。“大量证据来自学术界突破防护栏的研究,证明训练数据中存在私人信息,”他说,“我确实了解某些攻击案例,证实训练模型中包含敏感数据。”
这位教授补充道,更重要的是,AI工具部署后通常会持续通过用户交互进行训练,吸收并存储用户输入的所有信息。
专家表示,更甚者,某些情况下企业员工会审阅用户与聊天机器人的对话。这种做法部分是为了监测和防止不当行为,协助模型准确性与质量控制,同时也用于筛选供AI训练使用的对话样本。
现实案例
隐私担忧并非空穴来风。已有报道显示机密信息被意外泄露的案例。去年三月,OpenAI披露了一个漏洞,导致部分ChatGPT用户能查看其他用户与该工具的聊天标题,可能还短暂暴露了部分用户的支付信息,包括电子邮箱、信用卡号末四位及有效期。该漏洞源于训练工具中使用的某开源软件(即可供任何人免费查看、修改和部署的代码)存在缺陷。
聊天机器人同样容易遭受蓄意攻击。例如,一些研究人员最近发现可以轻易绕过防护措施,挖掘出大型语言模型收集的个人信息,包括电子邮件。
克里希南指出:“ChatGPT的漏洞‘很快得到了修补’,但关键在于,这些AI软件系统非常复杂,且构建在其他软件组件之上,其中一些是开源的,它们包含可被利用的漏洞。”圣克拉拉大学马库拉应用伦理学中心互联网伦理项目主任伊琳娜·雷库表示,大型语言模型本身也存在类似的固有漏洞。
隐私问题严重到让多家公司限制或禁止员工在工作中使用AI聊天机器人。“如果大公司都担心自己的隐私,如果他们不确定自己的数据会发生什么,那说明在分享任何个人信息时我们都应该谨慎,”雷库说。
雷库表示,对于已经存在于聊天机器人模型中的信息,我们无能为力,“但为什么要冒险通过向模型输入新的类似数据,让你的私人信息泄露出去呢?”
最好不要这样做
聊天机器人开发者已采取一些措施来保护用户隐私。例如,用户可以通过主页上非常显眼的开关,关闭ChatGPT无限期保存聊天记录的功能。这并不能完全防止黑客攻击——该网站表示,选择此选项的用户的新聊天记录仍会保存30天——但它明确表示这些聊天不会用于训练模型。
Bard要求用户先登录Bard.Google.com,然后按照几个步骤默认删除所有聊天记录。微软发言人表示,必应用户可以打开聊天机器人网页,在页面右侧查看搜索历史,然后删除他们想要移除的单个聊天记录。微软发言人表示:“但目前用户无法禁用聊天历史记录。”
专家表示,消费者保护自己的最佳方式是避免与生成式AI工具分享个人信息,并在与任何AI对话时留意某些危险信号。
一些危险信号包括使用没有隐私声明的聊天机器人。“这表明必要的治理机制还不够成熟,”律师事务所Mayer Brown的隐私和网络安全合伙人多米尼克·谢尔顿·莱比锡说道。
另一个危险信号是聊天机器人要求提供超出合理范围的个人信息。“有时为了登录账户,你需要分享账号、密码或回答一些个人问题,这并不罕见,”谢尔顿·莱比锡说,“但如果被要求提供社保号码,那就另当别论了。千万别给。”她还表示,与一个你从未听说过的聊天机器人讨论任何个人事务都是不明智的,因为整个系统可能由不良行为者操控。
圣克拉拉大学的拉伊库警告不要将具体的健康状况或财务信息输入通用聊天机器人,因为大多数聊天机器人公司在服务条款中明确表示,员工可能会查看部分对话内容。“当生成式AI的回复可能不准确时,冒着信息泄露的风险值得吗?很可能不值得,”拉伊库说道。
卡内基梅隆大学的克里希南提到黑客风险,提醒人们在使用谷歌Bard的一项功能时要三思,该功能允许工具读取并处理你所有的电子邮件,以便它理解你的写作风格和语气。
最终,你输入聊天机器人的内容需要进行风险与回报的权衡,每个人的舒适度会有所不同。然而,专家表示,你至少应该仔细检查聊天机器人的服务条款和隐私政策,以了解你的数据将如何被使用。
“幸运的是,我们现在并不处于一个末日般的聊天机器人环境中,”谢尔顿·莱比锡说。“声誉良好的生成式AI公司正在采取措施保护用户。”尽管如此,她表示,在与聊天机器人分享敏感信息时,始终要保持警惕。
海蒂·米切尔是芝加哥和伦敦的作家。可以通过[email protected]联系到她。