AI只需一个“关闭开关”——《华尔街日报》
Andy Kessler
对人工智能最生动的一课或许是SpaceX星舰火箭在发射四分钟后被迫中止的"快速非计划解体"。随着ChatGPT引发对人类毁灭的猜测,你应该知道技术人员一直痴迷于所谓的"回形针理论"——即如果你告诉人工智能系统要最大化生产回形针,它会让整个世界充满回形针。该理论的另一个版本"永远的草莓地"则描述人工智能会利用每一寸可用土地种植草莓。可怕吧?《月光光心慌慌》系列电影也是这么吓人的。
不甘示弱的决策理论家(啥?)埃利泽·尤德科夫斯基最近在《时代》杂志撰文称,“开发超人类AI最可能的结果"是"地球上所有人都会死亡”。所有人!这就像当下大多数标题党一样荒谬可笑。ChatGPT创造者OpenAI的首席执行官萨姆·奥尔特曼对播客主莱克斯·弗里德曼表示:“确实存在这种可能性。“得了吧。
显然,潘多拉魔盒已经打开并释放出邪恶,这完全忽视了大型语言模型在软件编码、职场、教育等领域带来变革的积极用途。可悲的是,我们政府中的天才似乎是仍在阅读《时代》杂志的少数群体。所以快让监管机构来英雄般地关上这个盒子吧。
本月早些时候,美国商务部启动人工智能监管程序,助理部长艾伦·戴维森表示:“我们知道需要设立一些防护栏,以确保它们被负责任地使用。“这是个坏主意。防护栏是给生日派对上玩保龄球的孩子准备的。人工智能尚处萌芽阶段,我们还不清楚它将如何改变行业和社会。现在不该束缚它的发展。
如果美国对人工智能实施监管,相关研究只会转移到不受监管的地方,比如巴哈马,未来那些不修边幅的程序员可能会在那里继续埋头苦干。更糟的是,中国。谷歌CEO桑达尔·皮查伊在接受CBS《60分钟》采访时表示,他希望全球对人工智能进行监管。埃隆·马斯克和一群人工智能专家联名发表公开信,呼吁立即暂停"大型人工智能实验"六个月。那些需要追赶的人却在推动暂停,这不是很有趣吗?
我们不需要繁重的新法规。关于虚假广告、版权侵权和危害人类的法律已经存在。我们真的需要那些仍在使用过时的Cobol编程机器的官僚们,为他们不理解的新生技术制定法规吗?但为了缓解担忧,我建议为人工智能制定一条小规则:包含一个终止开关。
每次火箭发射都有一个终止开关——一个在火箭危及人类之前将其引爆的中止按钮。对人工智能唯一合理的监管就是要求类似的终止开关。对于消费者使用,也许是一个安全词,如"Bosco”,或一句话,如"打开舱门,HAL”,可以立即停止人工智能的行动——这是一种虚拟的拔掉机器电源的方式。进行大部分计算的数据中心,如亚马逊网络服务和微软Azure,可以轻松实现这种开关。
我们一直有能力停止计算机:在早期计算机上按Ctrl-C可以停止程序。Windows电脑有Ctrl-Alt-Delete。我经常对Alexa大喊"停止!"。让我们保持人类的控制权。奥特曼先生表示,OpenAI已经实现了一个终止开关。聪明。
大多数人工智能系统的构建都注重安全性与对齐性——即与人类福祉保持一致。奥特曼先生强调了其重要性。你能对此进行规范吗?我深表怀疑。但监管可能(或很可能)沦为政治工具,就像拜登政府昙花一现的"虚假信息治理委员会”。中国正在制定法规,要求人工智能"体现社会主义核心价值观,不得含有颠覆国家政权的内容”。我不认为自由世界会效仿这种做法。
我们能相信科技行业及其伦理学家能正确处理吗?2018年中国科学家贺建奎宣称通过编辑双胞胎女婴基因组使其获得HIV抗性时,基因编辑伦理违规行为立即遭到谴责。对人工智能的激烈反应可以预见。
那些企图阻碍进步的人会哀嚎人工智能对人类生存的威胁。这论调耳熟吗?我们经历过核冬天、百慕大三角、全球变冷又变暖又气候变化、唐纳德·特朗普,如今又有人工智能杀人机器。
总有些人需要靠臆想生存威胁才能起床。无妨,让他们忧虑吧。但抑制创新的监管绝非解决之道。火箭会失败,人工智能系统亦然。比起监管,紧急制动开关更能让我安心。
来信请发送至[email protected]。
本文发表于2023年4月24日印刷版,标题为《人工智能只需一个紧急制动开关》。