AI是技术官僚精英攫取权力的新借口——《华尔街日报》
Gerard Baker
对人类更大的威胁是什么:人工智能,还是那些要求对此采取行动的专家们?
随着关于人类生存威胁的警告声愈发响亮,全球范围内采取行动的呼声更加紧迫,似乎越来越可能的是,无论人工智能威胁究竟是什么,就像过去一个世纪左右人类所面临的其他所谓灭绝级威胁一样,它将被证明是大型官僚机构、全球政府和无所不知的监管者们要求更多控制我们自由的绝佳机会,将更多的主权从个人和国家转移到超国家专家和技术官僚手中。
如果我愤世嫉俗,我会推测这些威胁即使不是人为制造的,至少也是被夸大其词,目的正是为了让世界适应那些相信自己应该统治我们的技术官僚思维,以免在没有监督的情况下,人们无知的突发奇想会毁灭这个星球。
核武器、气候变化、流行病,现在又加上人工智能——令人惊讶的是,解决方案总是如出一辙:更多的政府;对自由市场和私人决策的更多控制,更多无国界的官僚机构。
上周,数百名科学家、技术企业家、立法者、达沃斯名流等人在人工智能安全中心的主持下发表了一份23字的声明,要求采取未具体说明的行动:“减轻人工智能带来的灭绝风险应成为全球优先事项,与流行病和核战争等其他社会规模风险并列。”
这份声明简洁得惊人,但正是其简洁性——及其来源——暗示了它的来龙去脉与意图。“灭绝风险"直接跳到了惯用的一级战备状态,要求立即采取行动。“全球优先"确立了监管的合理范围。将人工智能"与"流行病和核战争"这些熟悉的噩梦并列,暗示了所需权威的类型。
许多签署者也透露出关键信息:大量谷歌高管、比尔·盖茨、一两位民主党政客,以及数十年来呼吸着西海岸进步技术官僚正统思想稀薄空气的同一批人。
公平地说,我相信许多签署者和支持者是真心担忧人工智能风险,只是试图对真正重要的问题拉响警报——尽管我们或许该承认,历史上的技术恐慌很少被证明是合理的。但我们也知道,这类警告的矛头总是朝着相同的意识形态方向。
就连阿尔伯特·爱因斯坦也坚信,阻止毁灭人类的核战争唯一方法是建立一个"世界政府”,能够"通过司法裁决解决国家间冲突”。爱因斯坦或许是上世纪最伟大的科学家,但我谨认为这个观点过去是、现在依然是知识分子的呓语。
自从他80年前说出那些话以来,世界上的核大国数量已显著增加。这些国家在从亚洲到拉丁美洲的每个大陆上都卷入了军事冲突。其中一个大国在入侵邻国后,正在欧洲进行全面战争。然而,核毁灭并未成为现实。
我怀疑,试图强加一个世界政府,比各国通过惯用的外交与武力结合方式行使自决权解决冲突,更有可能导致灭绝级别的核战争。
气候变化是全球监管的终极理由。很可能并非巧合的是,气候极端主义与强制性全球管控的要求,正是在上世纪90年代传统马克思主义被彻底否定之际爆发的。在通过集体主义教条未能对自由市场施加有效权威后,左翼突然发现了一个气候威胁,可以借此作为黄金机遇,以比卡尔·马克思所能想象的更大规模来调控经济活动。
至于流行病,过去三年我们公共卫生管理者的行动表明,他们希望用一套僵化的全面规则将我们禁锢起来,以应对所谓的灭绝级别威胁。
这一切并非要淡化人工智能带来的挑战。对其进行彻底研究,并就如何最大化其机遇和最小化其风险展开健康辩论至关重要。我们应当倾听那些最熟悉其能力者的关切。我也不否认,国际合作已被证明是降低核战争、气候变化和流行病风险的有效途径,随着人工智能前沿技术的发展,这种合作无疑仍是必要的。
但当我们听到那些老生常弹的监管"虚假信息“和”误导信息“的呼声,以及关于无良民粹主义者将利用人工智能作恶的警告时,这场最新恐慌似乎主要引发了那些热衷于全球管控私人事务者的条件反射式反应。
当面对又一场自封专家和技术官僚要求全球行动、为他们自己及志同道合者创造庞大新官僚机会的表演时,我的建议是:警惕打着技术旗号招摇撞骗的极客。
图片来源:Getty Images/iStockphoto出现在2023年6月6日的印刷版中,标题为《人工智能是技术官僚精英攫取权力的新借口》。