我们该对人工智能威胁人类有多担忧?科技领袖们也无法达成共识——《华尔街日报》
Sam Schechner and Deepa Seetharaman
人工智能先驱们正在激烈争论该技术带来的何种危险最令人恐惧。
一方阵营包括开发尖端AI系统的高管们,他们认为AI可能引发灾难性后果。另一方阵营的科学家则主张,当前更应关注AI的实际应用方式及其对日常生活造成的潜在危害。
Anthropic公司CEO达里奥·阿莫迪属于警示生存威胁的阵营。今年夏天他在国会作证时指出AI可能对人类构成重大风险。ChatGPT开发商OpenAI首席执行官萨姆·奥尔特曼今春全球巡访时多次表示,AI终有一天会造成严重伤害乃至更糟后果。埃隆·马斯克五月在《华尔街日报》活动上宣称"AI存在灭绝人类的可能性"——不久后便成立了自己的AI公司。
奥尔特曼、马斯克等AI领军企业高管下周将出席美国参议院多数党领袖查克·舒默召集的闭门会议,该系列会议首个议题就包括"末日情景"研讨。
另一派AI科学家则认为这些警告是科幻小说引发的杞人忧天,甚至是别有用心的营销策略。他们指出AI企业和监管机构应将有限资源集中于技术当前及迫切的威胁,例如可能助长选举虚假信息的工具,或是放大人类偏见的算法系统。
随着全球企业和政府正试图决定将资源和注意力集中在哪里,以最大限度地发挥这项被广泛认为可能改变世界的技术的优势,同时将其弊端降至最低,这场争论正在加剧。
“这是一个非常真实且日益明显的两难选择,“致力于人工智能治理并努力弥合分歧的智库"未来社会"联合创始人尼古拉·米亚莱表示,“这是月底与世界末日之间的抉择。”
尽管备受关注,但直到最近,关于人工智能存在性风险(或那些最担心它的人喜欢称之为"x-risk”)的严肃公开讨论仍仅限于哲学家和人工智能研究人员的一小部分人。
在OpenAI去年年底发布ChatGPT及其后续改进提供类人回应之后,这种情况发生了变化,引发了此类系统可能获得超人类智能的警告。包括被认为是人工智能教父之一的杰弗里·辛顿在内的著名研究人员认为,它包含了一丝类人推理。辛顿今年离开了Alphabet旗下的谷歌,以便更自由地讨论人工智能的风险。
剑桥大学机器学习教授大卫·克鲁格表示,关于存在性风险的警告"一直存在一个禁忌,你会被嘲笑,被当作疯子对待,这会影响你的工作前景”。克鲁格帮助组织了一份5月份的声明,称人工智能的灭绝风险与大流行病和核战争的危险相当。数百名人工智能专家签署了该声明,包括谷歌、OpenAI和Anthropic的高管和研究人员。
“我想让研究人员知道,他们并不孤单,”克鲁格说。
该领域的一些人认为,人工智能公司强调系统的存在风险有一个矛盾的好处,因为这传达了一种他们的技术非常复杂的感觉。
“很明显,这些家伙仍然从被炒作的热情中受益,”曾在谷歌担任律师、参与制定2018年人工智能原则清单、现在在Web3基金会的丹尼尔·舍恩伯格说。他表示,政策制定者应该更多地关注短期风险,比如人工智能使得开展传播虚假和误导性信息的活动成本更低,或者让硅谷的权力更加集中。
“存在主导的风险,大科技变成大人工智能,”舍恩伯格说。
担心存在风险的人工智能领导者表示,他们的担忧是真实的,不是一种策略。“说‘哦,政府毫无希望,所以呼吁监管是某种四维棋局’——这根本不是我们的想法。这是一个存在风险,”OpenAI的阿尔特曼在六月说。
所谓的末日论者并不说人工智能一定会像《终结者》电影中的天网一样崛起并毁灭人类。一些人担心,被训练寻求奖励的人工智能系统最终可能会有隐藏的权力追求冲动,在执行我们的愿望时无意中伤害人类,或者干脆超越人类并控制我们的命运。这个领域的研究主要集中在所谓的对齐上——如何确保未来的计算机思维的目标与我们的目标内在一致。
相比之下,人工智能伦理和公平的专家们更关心这些工具如何无意或有意地剥削工人并加深数百万人的不平等。他们希望科技公司和监管机构实施培训标准和技术以减少这种威胁。
多样性是一个敏感议题。人工智能伦理学家已揭示,基于历史数据训练的AI系统可能将过去的歧视固化到未来住房、招聘或刑事判决等高利害决策中。研究还表明,生成式AI系统可能产生带有偏见的图像。他们同时指出,AI研究人员缺乏多样性会使其忽视AI对有色人种和女性群体的潜在影响。
这场辩论可能变得激烈。未来生命研究所主席马克斯·泰格马克在6月一场关于生存风险的公开论坛上,质问圣塔菲研究所著名AI研究员梅拉妮·米切尔:“你们有什么具体计划来规避生存级风险?你根本没有回答我的问题。”
“我认为根本不存在生存级风险,“米切尔立即反驳,并补充说人们正在努力"缓解更紧迫的现实世界风险”,此时泰格马克瞪大了眼睛。
米切尔在采访中表示,关于生存风险的讨论"完全基于推测,缺乏科学依据”。
麻省理工学院教授泰格马克领导的非营利组织旨在防范技术引发的极端大规模风险。他认为企业有意激化"关注公平议题"和"关注生存风险"两派的对立,以此逃避监管。
“如果双方不能互相认可,实际上是在损害自身利益,“他在采访中表示。
这种矛盾已持续多年。2015年,在谷歌园区某会议间隙,一些学者和科学家聚集讨论AI风险。其中一方直接质疑生存风险支持者,强调应聚焦包括偏见在内的现实危害。
加州大学伯克利分校教授史蒂文·韦伯回忆道,在场时,x-risk(生存风险)研究者反驳称,在人类未来悬于一线之际,没人该为AI导致房贷利率波动0.25%而忧虑。
“我差点以为学术会议要上演全武行了。“韦伯说。
末日论者内部也分歧严重,部分悲观者认为,即便大公司高管自称担忧风险,其应对措施仍远远不足。
“我们正目睹所有巨头都在荒谬地竞逐’神级AI’。“致力于解决AI对齐问题的Conjecture公司CEO康纳·莱西表示。他对科技巨头宣称重视生存风险的说辞持保留态度:“要看行动,别听宣言。”
弥合分歧的努力也在进行。部分伦理研究者表示不完全否定生存风险,但主张将其纳入当前更明确的问题框架中解决。一些末日论者则指出,伦理界强调的工业化虚假信息颠覆政权或引发战争等问题,很可能正是通往灾难的路径。双方都对破解AI思维"黑箱”(即可解释性问题)抱有共同兴趣。
“确实有人在努力连接这两个领域,“爱丁堡大学AI伦理学助理教授阿图萨·卡西尔扎德表示,她曾任职谷歌DeepMind,“希望这些群体能意识到,他们本质上关注的是相同的问题。”
写信给萨姆·谢克纳,邮箱[email protected],以及迪帕·西塔拉曼,邮箱[email protected]
刊登于2023年9月5日印刷版,标题为《科技领袖对AI威胁人类存分歧》。