《华尔街日报》:借鉴社交媒体教训,约束人工智能的努力——切勿重蹈覆辙坐失良机
Deepa Seetharaman
社交媒体已存在十多年后,人们才开始认真着手遏制其负面影响。而对于人工智能,立法者、活动人士和高管们不愿再等待那么久。
过去几个月里,获奖科学家、白宫官员和科技公司CEO纷纷呼吁为ChatGPT等生成式AI工具设置防护栏——这款由微软投资的初创公司OpenAI去年推出的聊天机器人。参与讨论的许多人都是持续推动社交媒体更安全的资深人士。
这些倡导者将AI辩论视为新机遇,以影响企业开发和营销产品的方式,并塑造公众对技术的期待。他们希望更快地塑造AI格局,并从社交媒体之争中吸取教训。
“我们错过了社交媒体的窗口期,“儿童网络安全组织Common Sense Media首席执行官吉姆·斯泰尔表示。该机构多年来一直就隐私和有害内容等问题批评社交媒体平台。“行动太迟了——非常迟——基本规则早已确立,行业为所欲为。”
活动人士和高管们正在推出一系列项目和提案,以塑造对AI监管的理解,解决包括AI可能带来的操纵、错误信息和偏见等问题。
Common Sense正在开发独立的AI评级和审查系统,将根据ChatGPT等AI产品处理私人数据、儿童适用性等因素进行评估。这个非营利组织计划今年秋季推出该系统,并在其2500万美元预算之外,每年投入500万至1000万美元资助该项目。
包括Mozilla基金会在内的其他互联网倡导组织也在构建自己的开源人工智能工具,并投资于那些声称正在开发负责任人工智能系统的初创企业。一些最初专注于社交媒体领域的公司,如今正试图向AI公司出售服务,帮助其聊天机器人避免输出错误信息和其他有害内容。
科技公司正竞相影响监管政策,与既对AI持谨慎态度又渴望抓住其机遇的各国政府进行讨论。五月初,拜登总统在白宫会见了OpenAI、微软和谷歌等公司的首席执行官。OpenAI CEO萨姆·奥尔特曼花费数周时间与全球立法者及其他领导人会面,讨论AI的风险及其公司关于安全监管的构想。
奥尔特曼与微软总裁布拉德·史密斯均主张设立 一个新的监管机构,负责为大型AI系统颁发许可。特斯拉CEO埃隆·马斯克(他于周三宣布正式推出其新AI初创公司)五月曾表示,政府应召集一个可能包含行业高管的独立监督委员会,制定确保AI安全发展的规则。
美国联邦贸易委员会也在严格审查AI领域。根据上周公开的民事传票,该机构正在调查OpenAI是否因ChatGPT发布虚假信息而"从事不公平或欺骗性行为”。奥尔特曼表示OpenAI确信自身遵守法律,且"当然会配合联邦贸易委员会工作”。
在所有活动中,一个日益强烈的感受笼罩着许多活动人士和立法者:多年来对包括Facebook母公司Meta Platforms、Twitter和TikTok在内的社交媒体公司进行监管或改变的努力并不令人满意。Facebook成立于2004年,Twitter成立于2006年,但关于监管的广泛讨论直到2016年美国大选期间发现俄罗斯干预和其他问题后才真正开始。
“国会在社交媒体问题上未能把握时机,”民主党参议员理查德·布卢门撒尔在5月关于人工智能的国会听证会上表示。“现在我们必须在人工智能领域履行这一义务,在威胁和风险成为现实之前。”
尽管近年来社交媒体高管呼吁加强监管,但美国尚未制定新的联邦法律,要求公司保护用户的隐私和数据,或更新近三十年来平台内容监管的规则。部分原因是立法者之间存在分歧,即公司是否应该采取更多措施来监管其内容,还是已经越界压制了言论自由。
一些经历过这些斗争的活动人士表示,这个时代的两个主要教训是:不能信任公司进行自我监管,以及联邦政府过于僵化,无法通过有意义的立法。“存在巨大的空白,”常识媒体的斯泰尔说。
然而,他和其他人表示,他们对人工智能公司愿意讨论重大问题感到鼓舞。
“我们看到一些来自社交媒体信任与安全团队的人现在在人工智能公司工作,”NewsGuard的联合创始人L.戈登·克罗维茨说,该公司追踪和评级新闻网站。克罗维茨曾是《华尔街日报》的出版人,他表示这些人在目前的角色中似乎更有权力。“他们的肢体语言是‘我们被解放了。’”
诸如GPT-4这样的大型语言模型通过抓取互联网上的所有内容进行训练,但这些数据中充斥着大量仇恨言论、错误信息和其他有害内容。因此,在初始训练后,这些模型会通过名为“微调”的过程进一步优化,以剔除部分不良内容。
NewsGuard正与人工智能公司洽谈,授权其数据(Crovitz称之为“现存所有重要虚假叙事的目录”)用于微调,并加强AI模型的防护机制,防止生成此类错误信息和虚假叙事。
Meta前产品经理Ravi Iyer现就职于南加州大学马歇尔商学院,正在开发一项追踪人们如何体验AI系统的调查。他希望这项调查能影响AI公司设计和部署产品的方式。
“我们需要知道平台可以做出选择,并因未做出错误选择而获得奖励,”Iyer说。
开发Firefox浏览器的非营利组织Mozilla基金会表示,他们正在构建开源模型,作为大型私有AI模型的替代方案。“我们需要构建替代品,而不仅仅是倡导它们,”Mozilla总裁Mark Surman说。
Steyer将Common Sense正在构建的AI评级系统描述为该非营利组织历史上最具雄心的项目。曾就职于谷歌、现协助设计该系统的顾问Tracy Pizzo Frey表示,目前尚无评估AI工具安全性的既定方法。
目前,Common Sense正在考察七个因素,包括公司对其系统功能和不足的透明度。该非营利组织可能会考虑公司提供的训练数据信息量,而包括OpenAI在内的公司视这些数据为竞争机密。
弗雷表示,常识组织不会索取专有数据,但需要有助于家长和教育工作者就人工智能使用做出明智决策的信息。“关于透明度应呈现何种面貌尚无明确规定,”弗雷说道。
联系迪帕·西塔拉曼请致信[email protected]
本文刊登于2023年7月18日印刷版,标题为《活动人士迅速行动塑造AI护栏》。