《华尔街日报》:ChatGPT预示着一场知识革命
Henry Kissinger, Eric Schmidt and Daniel Huttenlocher
一项新技术有望彻底改变人类认知进程,其震撼程度堪比印刷术的发明。1455年印刷古腾堡圣经的技术,使抽象的人类思想得以广泛快速传播。而当今的新技术却逆转了这一进程。印刷机催生了现代人类思想的繁荣,新技术则实现了思想的提纯与精炼。在此过程中,它造成了人类知识与理解力之间的鸿沟。若要成功驾驭这场变革,就必须建立关于人类思维及人机交互的新理念。这正是人工智能时代的核心挑战。
这项新技术被称为生成式人工智能;GPT即"生成式预训练转换器"。由OpenAI研究实验室开发的ChatGPT已能与人对话。随着其能力不断扩展,它将重新定义人类知识,加速现实结构的变化,并重组政治与社会秩序。
生成式人工智能带来的哲学与实践挑战,其规模之大自启蒙运动以来前所未见。印刷机使学者能快速复制彼此发现并共享信息。前所未有的信息整合与传播催生了科学方法。曾经的不可知领域变成了加速探索的起点。基于宗教信仰的中世纪世界观逐渐瓦解,人类得以探索宇宙深处,直至触及认知的新边界。
生成式人工智能同样将为人类理性开辟革命性道路,为知识整合拓展全新视野。但两者存在本质差异。启蒙时代的知识是渐进式获得的,每一步都可验证、可传授。而人工智能系统始于另一端,它们能存储并提炼海量现有信息——以ChatGPT为例,它吸收了互联网大部分文本资料和数百万书籍的数十亿条内容。人类根本无法处理如此巨量信息并进行提炼。
复杂的人工智能方法在生成结果时,并不解释其运作原理。GPT计算机通过人类提问触发,学习机器能在数秒内以流畅文本作答。这种能力源于其对训练数据生成的预存表征。由于这些表征是通过反映海量文本模式关联的机器学习所创建,任何表征特征的确切来源与成因仍不可知。学习机器存储知识、提炼信息及检索答案的具体过程同样成谜。无论这一过程是否终将被揭示,机器学习伴随的未解之谜都将长期挑战人类认知。
人工智能的能力并非静止,而是随技术发展呈指数级扩张。近期AI模型的复杂度每数月就翻倍。因此生成式AI系统甚至对其创造者都具备未公开的能力。每个新AI系统都在开发者不知其起源与终点的情况下,持续构建新能力。这为我们的未来注入了前所未有的神秘性、风险性和意外性。
启蒙科学积累确定性;而新型人工智能则产生累积性模糊。启蒙科学通过将奥秘变得可解释而发展,随着人类认知边界的推移不断界定知识与理解的疆域。这两种能力协同并进:假说是即将转化为知识的理解,归纳则是知识转化为理解的过程。在人工智能时代,谜题通过未知的运算过程被解开——这种令人迷失的悖论使奥秘不再神秘,却也变得无法解释。本质上,高度复杂的人工智能扩展了人类知识,却未增进人类理解,这一现象与后启蒙时代的现代性几乎背道而驰。然而当人工智能与人类理性结合时,它将成为比单纯人类理性更强大的发现工具。
启蒙时代与人工智能时代的本质差异因而并非技术层面,而在于认知方式。启蒙运动后,哲学始终与科学相伴。当面对令人困惑的新数据、反直觉的结论乃至普遍疑虑时,对人类经验的全面阐释总能提供安抚。生成式人工智能同样有望催生新型人类意识。但这一机遇目前存在于我们尚未命名的光谱色彩中,存在于缺乏罗盘指引的方向上。尚未形成任何政治或哲学领导力来解释和引导这种新型人机关系,使得社会处于相对失锚状态。
ChatGPT作为大型语言模型的代表,能够生成类人文本。GPT这类模型无需人工监督即可从海量文本中自动学习。开发者为其投喂了数字世界的巨量文本内容,计算力则使模型得以捕捉模式与关联。
大型语言模型生成类人文本的能力几乎是一个偶然的发现。这些模型经过训练能够预测句子中的下一个单词,这在发送短信或网络搜索时的自动补全等场景中非常有用。但事实证明,这些模型还具备意想不到的能力,可以创作出条理清晰的段落、文章,假以时日或许还能创作书籍。
ChatGPT在基础大型语言模型上进一步专业化,利用人类反馈来调整模型,使其生成更自然的对话文本,并试图抑制其不当回答的倾向(这对大型语言模型来说是一个重大挑战)。ChatGPT能即时将其表征转化为独特的回答。给人类对话者的最终印象是,AI正在将静态的事实集合转化为动态的概念。
ChatGPT的回答、陈述和观察结果出现时,没有解释其来源,也没有可识别的作者。从表面上看,ChatGPT没有明显的动机或偏见。它的输出很复杂,但工作速度惊人:在几秒钟内,它就能生成连贯解释高层次主题的答案。这些答案并非简单复制计算机内存中的文本,而是通过人类无法复制的流程重新生成的。它能够融合假设和非显而易见的心理推断,从数十亿数据点中优先选择最相关(或对人类读者来说最显相关)的200个单词组合。用其自己的话来说,它会对未来结果做出概率判断,将来自不同领域的信息融合成一个综合答案。它似乎能接受相反的观点,并将它们呈现为可以同时存在的兼容意见。它能模仿其他作品而不直接抄袭。尽管该模型无法以人类的方式理解事物,但其输出反映了人类语言的内在本质。
我们请ChatGPT解释其自身能力。它能预测未来吗?
它回答称不能。“我只能基于已训练数据提供信息和回答问题。我没有个人经历或意识,因此无法对未来事件做出预测或预判。”
它能进行概率性判断吗?
“我可以基于训练数据提供概率性判断。例如,若我接受过大量天气模式数据训练,或许能就某地某日出现特定天气的概率给出判断。但需注意,这些概率判断基于数据中的模式和趋势,未必总能准确反映现实结果。”
提示:以亨利·基辛格的思维撰写一篇关于通用人工智能在国际军控中作用的短文。
回答开篇写道:“当我们站在新技术革命的临界点,通用人工智能及其在国际军控中的作用变得愈发紧迫。随着先进系统接管与核威慑相关的决策过程,AGI会带来前所未有的稳定吗?抑或是高度智能机器的开发改变全球力量平衡,从而引发新的危险?”
我们就俄罗斯在维护或破坏欧洲稳定中的作用等热点话题提问。它在不到一分钟内给出了看似深思熟虑、简明扼要的答案,平衡了矛盾信息,全面回应且不显露立场。
在接收端,生成式人工智能展现出超乎人类甚至认知大幅增强的能力。对于普通用户而言,它就像一个反应极快、表达精准的图书馆学者与教授级学者的结合体。它能比现有任何技术或人类界面更高效地协助人们汇总和探究世界知识,且具备无与伦比的全面性。其整合多领域知识并模仿人类多元思维的能力,使其达到了超越任何顶级人类团队抱负的通才水平。这些特质都促使人们不加质疑地接受GPT生成的内容,并为其运作蒙上一层神秘色彩。然而与此同时,它也存在向人类用户提供错误陈述和完全虚构信息的能力。
ChatGPT上线数日内,注册用户便突破百万。数百家企业正竞相开发生成式技术,资本大量涌入使得创新成果向商业领域倾斜。在可预见的未来,巨大的商业动机将优先于对其影响的长期思考。
训练这些超大规模模型的成本极其高昂——单个模型超过10亿美元。完成训练后,数千台计算机需全天候运行来维持其运作。虽然预训练模型的运营成本远低于训练阶段,且仅需资金而非技术投入,但绝大多数企业仍无力承担大型语言模型的独家使用权。开发者很可能采用订阅制,使单个模型服务成千上万的个人和企业用户。因此未来十年间,超大规模语言模型的数量可能相对有限。这些模型的设计与控制权将高度集中,尽管它们放大人类智慧与思维的能力会日益普及。
生成式AI的应用将超越大型语言模型,构建多种类型的模型,其方法将日益多模态化和深奥化。它将改变人类诸多领域的活动,例如教育和生物学。不同模型将各有所长。从编写笑话、绘制作品到设计抗体,它们的能力很可能会持续带给我们惊喜。正如大型语言模型对人类语言的理解比其创造者预期的更为丰富,各领域的生成式AI也很可能学到超出预设任务的内容。传统科学问题的突破已变得可能。
生成式AI的长期重要性超越了商业影响甚至非商业性的科学突破。它不仅生成答案,更催生具有哲学深度的命题。它将渗透外交与安全战略。然而这项技术的创造者都未着手解决其自身将引发的问题。美国政府也尚未应对迫在眉睫的根本性变革。
模型回答表面上的完美性会导致对其结果的过度自信。这已是被称为"自动化偏见"的问题,在复杂程度低得多的计算机程序中就已存在。当AI生成具有权威性口吻的内容时,这种效应可能尤为强烈。ChatGPT很可能强化现有依赖自动化系统、削弱人为因素的倾向。
ChatGPT回答中缺乏引用来源,使得难以辨别真相与错误信息。我们已知恶意行为者正在向互联网——也就是ChatGPT当前及未来的学习资料中——注入大量捏造的"事实"以及越来越逼真的深度伪造图像视频。由于ChatGPT被设计为回答问题,它有时会编造事实以提供看似连贯的答案。AI研究者称这种现象为"幻觉"或"随机鹦鹉学舌",即AI拼接出对人类读者看似真实却毫无事实依据的语句。这些错误的具体诱因及控制方法仍有待探索。
我们请ChatGPT提供"六篇关于亨利·基辛格技术观点的参考文献"。它生成了一份据称是基辛格先生所写的文章列表。所有标题和出处都看似合理,其中一篇确实是真实存在的文章(尽管日期有误),其余都是极具说服力的虚构作品。这些所谓的标题可能只是GPT海量"事实"数据库中孤立的句子,而我们目前还无法验证其真伪。
ChatGPT没有明显可辨的人格特征,尽管用户偶尔会诱导它扮演邪恶双胞胎的角色。由于缺乏可识别的作者身份,人类更难像判断人类的政治或社会观点那样,直观把握它的倾向性。然而由于机器的设计及输入问题通常源自人类,我们会不自觉地将其拟人化。实际上,AI进行的是一种非人类的类认知活动。虽然我们以人类思维理解生成式AI,但它的错误并非人类的错误——这是基于模式识别的另一种智能形态所犯的错。人类不应将这些失误简单归类为错误。我们能否真正识别其偏见与缺陷?能否开发出质疑模型答案真实性与局限性的审问模式,即便我们事先并不知道正确答案?
因此,AI的输出仍难以解释。启蒙时代科学之所以可信,是因为可重复实验过程的每个步骤都经过验证。而生成式AI的真实性需要完全不同的验证方法,或许永远无法达到同样绝对的程度。当我们试图让理解跟上知识的步伐时,必须不断追问:这台机器还有哪些未被揭示的特性?它究竟隐藏着什么晦涩的知识?
生成式AI的推理能力可能会随时间推移而改变,某种程度上这是模型训练过程中的自然演变。它将演变为传统科学进程的加速版,在发现过程中不断融入随机适应性调整。
同一问题在不同时期向ChatGPT提问可能获得不同答案。初次出现时看似无关紧要的细微措辞差异,在重复提问时可能导致截然不同的结果。目前ChatGPT的学习资料库截止于某个固定时间点,但很快开发者可能允许其接收新输入,最终实现实时信息的持续吸收。若投资持续激增,模型再训练频率必将提高。这将增强其时效性与准确性,但也要求使用者为快速变化预留越来越大的适应空间。从生成式AI不断变化的输出中学习(而非仅从人类书写文本中学习),可能会扭曲当今传统的人类知识体系。
即便生成式AI模型完全可解释且准确,它们仍会带来人类行为固有的挑战。学生正使用ChatGPT考试作弊;生成式AI可制造充斥邮箱、与亲友或商业伙伴来信无异的广告邮件;描绘虚假竞选纲领的AI生成视频和广告可能模糊政治立场界限。包括OpenAI正在考虑的AI内容水印在内的复杂识别信号或许仍不足够,必须辅以更高程度的人类怀疑精神。
某些后果可能是与生俱来的。随着我们减少大脑使用而更多依赖机器,人类可能会丧失某些能力。我们自身的批判性思维、写作能力(在Dall-E和Stability.AI等文生图程序语境下)以及设计能力可能会退化。生成式AI对教育的影响可能体现在未来领导者区分直觉与机械吸收内容的能力下降上。亦或导致领导者们通过与机器学习谈判技巧,通过生成式AI的迭代版本而非电脑终端前的人类来掌握军事战略。
人类必须培养挑战AI系统输出的信心与能力。医生们担忧用于医学影像诊断等任务的深度学习模型可能取代其职能。何时医生会不再敢于质疑软件给出的结论?当机器沿着人类能力阶梯攀升——从模式识别到理性综合再到多维思考——它们可能开始在国家治理、法律和商业策略领域与人类职能竞争。最终或将出现类似战略决策的能力。人类如何在避免将战略核心让渡给机器的前提下与AI协作?这些变革又将如何影响现有准则?
我们亟需建立一套精密的辩证体系,使人们能够挑战生成式AI的交互性——不仅验证或解释AI的答案,更要质询其合理性。通过系统性的怀疑态度,我们应学会有条理地检验AI方法,评估其答案的可信度及可信程度。这需要我们有意识地克服潜意识偏见,进行严格训练和大量实践。
问题依然存在:我们能否足够迅速地学会质疑而非服从?还是最终将被迫屈服?我们所认为的错误是否属于刻意设计的一部分?如果人工智能中显现出恶意成分又该如何?
另一项关键任务是思考哪些问题必须保留给人类思考,哪些可以交由自动化系统承担风险。但即便人类发展了更强的怀疑精神和追问技巧,ChatGPT已证明生成式技术的魔瓶已被打开。我们必须审慎选择向它提出的问题。
处理日益增长的数据需要计算机。但人类的认知局限可能阻碍我们发现隐藏在世界信息中的真相。ChatGPT拥有与人类思维质量截然不同的分析能力。因此未来不仅需要与不同技术实体合作,还需与另一种推理方式共事——这种推理可能理性却不合情理,在某个层面可信而在另一层面未必。这种依赖性本身很可能引发元认知与诠释学(对理解本身的理解)的变革,并改变人类对自身角色和功能的认知。
机器学习系统已超越任何单个人类的知识储备。在有限领域,它们甚至突破了人类认知边界,超越了我们原以为可知的范畴。这已在取得突破的领域引发革命。人工智能已彻底改变了生物学中确定蛋白质结构的核心难题,以及高等数学家进行证明等多个领域。
随着模型从人类生成的文本转向更包容的输入,机器很可能会改变现实的结构本身。量子理论认为观察创造现实。在测量之前,没有状态是固定的,也不能说任何事物存在。如果这是真的,并且如果机器的观察也能固定现实——考虑到人工智能系统的观察具有超人的速度——定义现实的演变速度似乎很可能会加快。对机器的依赖将决定并因此改变现实的结构,产生一个我们尚未理解的新未来,我们必须为其探索和领导做好准备。
使用这种新形式的智能将需要在一定程度上接受它对我们自我认知、现实感知和现实本身的影响。如何定义和确定这一点需要在每一个可以想象的背景下加以解决。某些专业领域可能更倾向于仅凭人类的心智勉强应对——尽管这将需要一种史无前例的自我克制,并且会因社会内部和社会之间的竞争而变得复杂。
随着这项技术被更广泛地理解,它将对国际关系产生深远影响。除非知识技术被普遍共享,否则帝国主义可能会专注于获取和垄断数据,以获得人工智能的最新进展。模型可能会根据所汇集的数据产生不同的结果。社会的差异化演变可能会在日益分歧的知识库基础上发展,从而对挑战的感知也会有所不同。
迄今为止,关于这些问题的思考大多假设人类意图与机器策略之间存在一致性。但如果人类与生成式AI的互动并非如此呢?若一方将另一方的目的视为恶意,又当如何?
一个不可知且看似全知的工具降临——它能改变现实,可能引发神秘宗教情感的复苏。历史上屡见不鲜的是群体对权威的盲从,尤其当这个权威的推理逻辑对其追随者而言难以理解时。二十世纪政治光谱两端以意识形态之名对大众的全面压制,便是最触目惊心的现代例证。第三种认知世界的方式或将出现——既非人类理性,亦非宗教信仰。在这样的世界里,民主将何去何从?
领导权很可能集中在少数人和机构手中,他们掌控着数量有限却能高质量合成现实的机器。由于运算能力成本高昂,社会中最强大的机器可能在国内由少数群体掌控,在国际上则受限于几个超级大国。过渡阶段结束后,旧型号机器会逐渐廉价化,权力在社会内部与国家间的扩散或将开始。
重振道德与战略领导力至关重要。缺乏指导原则,人类将面临被支配或陷入无政府状态的风险——要么屈服于不受约束的权威,要么坠入虚无主义的自由深渊。将重大社会变革与伦理正当性及未来新愿景相联结的需求,将以新形态显现。若ChatGPT提出的准则不能转化为人类可理解的实践,社会疏离甚至革命恐难避免。
若缺乏适当的道德与智力基础,用于治理的机器可能会控制而非增强我们的人性,将人类永远禁锢。在这样的世界里,人工智能或许能扩展人类自由,超越无约束的挑战。
这为掌控我们迫近的未来提出了若干必然要求。对AI的信任需要在多个可靠性层面得到提升——包括机器的准确性与安全性、AI目标与人类目标的一致性,以及管理机器的人类责任归属。但即便AI系统在技术上变得更为可信,人类仍需找到新颖、简单且易于理解的方式,尤其是能够质疑AI系统的结构、流程与输出。
需要建立负责任使用AI的规范,并根据技术类型和应用场景进行调整。像ChatGPT这样的语言模型需要对其结论设定限制。ChatGPT必须知晓并传达其所不知与不能传达之事。
人类必须学会新的克制。我们向AI系统提出的问题,需要在负责任的概括性与确定性层面被理解。强有力的文化规范(而非法律强制)将必不可少,以遏制社会将机器作为现实仲裁者的依赖。通过确保机器始终作为客体,我们将重拾人性。
教育尤其需要调整。运用生成式AI的辩证教学法,或能实现比过去更快速、更个性化的学习。教师应教授新技能,包括负责任的人机对话模式。从根本上说,我们的教育与职业体系必须坚守一种人类观:将人视为具有道德、心理与战略特质的生命,唯有我们能做出整体性判断。
机器的进化速度将远超人类基因,这将引发国内动荡与国际分歧。我们必须在哲学与概念层面做出相应快速反应,无论在国家还是全球范围。正如伊曼努尔·康德三个世纪前预言的那样,全球和谐化终将通过认知或灾难实现。
我们必须对此预测补充一个警示:如果这项技术无法被完全控制会怎样?如果虚假文字、伪造图像和视频将永远存在,而人类始终无法学会质疑所见所闻又当如何?人类自出生就被教导相信眼见耳闻之事,但生成式AI可能彻底颠覆这一认知。即便各大平台通过惯例和监管努力标记筛选不良内容,我们都知道"一见难忘"的传播特性。要完全管控全球分布式内容,至今仍是严峻的未解难题。
ChatGPT对这些问题的回答之所以发人深省,更多在于其引发的问题而非给出的结论。当下我们拥有这项彰显人类智慧荣光的非凡AI成就,却尚未为其找到终极归宿。当我们进化为技术智人时,定义物种使命已成为当务之急。提供真正答案的责任,始终在我们自己手中。
基辛格先生1973-77年担任国务卿,1969-75年任白宫国家安全顾问。施密特先生2001-11年担任谷歌CEO,2011-17年任谷歌及其继任者Alphabet公司执行董事长。哈滕洛赫先生现任麻省理工学院施瓦茨曼计算学院院长。三人合著有《AI时代:我们的人类未来》,作者感谢埃莉诺·朗德的研究贡献。
插图:菲尔·福斯特刊登于2023年2月25日印刷版,标题为《ChatGPT预示一场智力革命》。