莉娜·汗的人工智能——《华尔街日报》
The Editorial Board
对于莉娜·可汗(Lina Khan),至少可以这样说:失败不会让她气馁。在联邦法官驳回联邦贸易委员会(FTC)阻止微软收购动视暴雪的请求后,这位主席转而将矛头指向OpenAI的ChatGPT,指控其散布虚假信息。
本周,FTC向OpenAI发出一封长达20页的信函,包含49个问题和17项文件要求,涉及从隐私政策到训练数据等方方面面。这一全面要求无异于大海捞针——尽管这个比喻对渔民可能不太公平,毕竟与可汗女士不同,他们至少清楚自己要捕捞的目标。
可汗对OpenAI的调查,实则是为其机构争夺技术监管权寻找借口。国会并未授权FTC监管人工智能或ChatGPT等大型语言模型,这些模型通过算法以类人方式识别、总结、翻译和生成文本,其训练数据来自从互联网抓取的海量信息。
但这些模型也表现出人类常见的编造信息倾向,用技术术语来说就是"幻觉"。ChatGPT会警告其可能"产生不准确信息",用户需自行核实机器人输出内容的准确性。但人们有时会疏忽这一点。
今年春天,纽约一名律师被发现使用ChatGPT为起诉航空公司的案件进行法律研究。破绽何在?他提交的案情摘要包含虚构的司法判决、引文和案例。大学教授们报告称发现学生论文中存在幻觉内容。教授,您是说托马斯·爱迪生并没有撰写《独立宣言》?
尽管没有技术是完美的,ChatGPT也不例外。其最新模型比OpenAI去年11月发布的初始版本更为精准。Meta、微软和谷歌已开发出各自的大型语言模型,正在推动竞争与创新。
医学和法律等专业领域正在探讨如何应用聊天机器人,国会也在就更广泛的人工智能监管展开辩论。然而可汗女士一如既往地抢在国会前面采取了行动。
联邦贸易委员会要求OpenAI说明其纠正"幻觉倾向"的流程,以及"您的大型语言模型产品在多大程度上可能生成关于真实个人的虚假、误导性或贬损性陈述",还包括"如何判定特定个体是否属于’公众人物’"。这一标准是否也适用于《纽约时报》或ProPublica对某些人物的报道?
FTC的信函还要求OpenAI解释其处理投诉的政策,包括模型"实际或据称生成了关于个人的虚假、误导性或贬损性陈述"的具体案例,以及"任何被列为安全挑战的危害"。
FTC的质询暗示其可能追究OpenAI对虚假陈述的责任。根据《通信规范法》第230条,社交媒体平台对用户生成的内容享有责任豁免。但如果有人传播ChatGPT生成的诽谤性陈述,责任应由谁承担?这需要国会来回答。
可汗女士在周四的众议院听证会上表示,她的机构缺乏"充足资金"。然而联邦贸易委员会似乎拥有绰绰有余的经费来提起毫无根据的诉讼并越权监管。
图片来源:奥利维尔·莫林/法新社/盖蒂图片社刊登于2023年7月14日印刷版,标题为《莉娜·可汗的人工智能》