OpenAI员工呼吁保护他们就人工智能风险发声 - 彭博社
Shirin Ghaffary
Sam Altman,OpenAI首席执行官,在2024年5月21日星期二在美国华盛顿州西雅图的微软Build活动上发言。
摄影师:Chona Kasinger/Bloomberg
由OpenAI联合创始人Sam Altman和Y Combinator支持,总部位于旧金山的Rain AI是一家不断增长的初创公司之一,致力于为AI平台开发新硬件。
摄影师:Dustin Chambers/Bloomberg一群来自OpenAI和Google DeepMind的现任和前任员工呼吁保护,以免因分享对这些公司及其他公司正在构建的技术“严重风险”的担忧而受到报复。“只要这些公司没有受到有效的政府监督,现任和前任员工就是少数能够让它们对公众负责的人之一,”一封公开 信件中写道,该信件由13位曾在这些公司工作过的人签署,其中7位透露了自己的姓名。“然而,广泛的保密协议阻止我们表达担忧,除了向可能未能解决这些问题的公司提出外。”近几周,OpenAI在保护人工智能方面的做法引发争议,包括解散其最知名的安全团队并遭遇一系列员工离职。OpenAI员工还提出担忧,称员工被要求签署与公司股份挂钩的非贬低协议,可能导致他们在对这家人工智能初创公司发表批评时失去利润丰厚的股权交易。在一些反对声音后,OpenAI表示将 解除 过去员工的协议。 周二签署该信件的前OpenAI员工之一Jacob Hilton 写道 在X上,公司值得对非贬低政策的变化给予赞扬,“但员工仍可能担心其他形式的披露报复,比如被解雇和被起诉索赔。”OpenAI的发言人在给彭博社的一份声明中表示,公司为提供最有能力和最安全的人工智能系统的记录感到自豪,并相信我们的科学方法来应对风险。”发言人补充说:“我们认为,鉴于这项技术的重要性,严格的辩论至关重要,我们将继续与世界各地的政府、公民社会和其他社区保持联系。”
谷歌的代表并没有立即回应有关评论的请求。在标题为《有权警告关于先进人工智能的权利》的信中,员工们表示他们担心,因为领先的人工智能公司“有强烈的财务激励来避免有效监督。” 另一方面,他们表示,这些公司“只有弱的义务”与公众分享其人工智能系统的真正危险。该信件认为,普通的告发者保护措施是不够的,因为它们侧重于非法活动,而员工们担心的许多风险尚未受到监管。
在他们的一系列提议中,员工们要求人工智能公司承诺禁止与风险相关的不诋毁协议,并为员工提供一个可验证的匿名流程,让员工向公司董事会以及监管机构提出问题。提议还呼吁公司在员工在耗尽其他内部流程后公开分享有关风险信息时不采取报复行动。
OpenAI表示,公司定期与董事会进行问答会议,员工可以在领导层办公时间表上提出关注。该公司还表示,为员工和承包商设立了匿名的“诚信热线”。
丹尼尔·科科塔洛(Daniel Kokotajlo)是一名前OpenAI员工,他在今年早些时候辞职,他表示担心公司是否为人工通用智能的影响做好了准备,这是一种假设的人工智能版本,可以在许多任务上胜过人类。科科塔洛表示,他认为到2027年有50%的机会达到AGI。
“公司没有什么真正阻止他们构建AGI并将其用于各种用途,也没有太多透明度,” Kokotajlo说,他冒着放弃股权的风险,以避免签署一项不得诋毁协议。“我辞职是因为我觉得我们还没有准备好。作为一个公司,我们还没有准备好,作为一个社会,我们也没有准备好,我们需要在准备和思考其影响方面投入更多精力。”
Rain AI已经招募了一位苹果公司芯片高管来领导硬件工程,这是这家初创公司本月第二次高调招聘,旨在设计一种新型人工智能半导体。
Jean-Didier Allegrucci曾协助开发取代英特尔公司在iPhone和Mac中的处理器,他将领导Rain AI努力创建更节能芯片的工作。他将与首席架构师Amin Firoozshahian合作,后者在在在Meta平台工作五年后转到这家初创公司。