想了解AI术语?从自然语言处理到神经网络的基础知识——《华尔街日报》
Steven Rosenbush, Isabelle Bousquette and Belle Lin
随着人工智能这项旨在模拟人类思维的技术崛起,一系列令人眼花缭乱的新术语随之涌现。从生成式AI到机器学习、神经网络和幻觉现象,我们获得了一整套全新词汇表。以下是对AI背后一些最重要概念的解读指南,帮助您理解这场影响深远的技术革命:
**算法:**现代算法通常是计算机遵循的一系列指令。那些专为搜索和排序数据设计的算法,正是通过检索信息并按特定顺序排列来工作的典型例子。算法可以由文字、数字或代码符号构成,只要它们能明确表述完成任务的有限步骤。但算法的起源可追溯至古代,至少能追溯到巴比伦时期的泥板文献。用于除法的欧几里得算法至今仍在沿用,甚至刷牙动作也能被提炼成算法——考虑到这个仪式性动作需要协调精细动作,这其实是个异常复杂的算法。
插图:马丁·托尼奥拉**机器学习:**人工智能的一个分支,依托于让计算机从处理数据中学习的技术。科学家们曾尝试通过直接将知识编程输入计算机来创造人工智能。
你可以向机器学习系统提供数百万张来自网络的动物图片,每张都标注为猫或狗。这种输入信息的过程被称为“训练”。即使对动物一无所知,系统也能识别图片中的统计模式,并利用这些模式来识别和分类新的猫狗样本。
虽然机器学习系统非常擅长识别数据中的模式,但在需要长链条推理或复杂规划的任务上,它们的表现则相对较弱。
**自然语言处理:**一种能够理解并回应人类语言的机器学习形式。它驱动着苹果的Siri和亚马逊的Alexa。谷歌旗下人工智能研究机构DeepMind的科研人员丹尼尔·曼科维茨表示,当今大多数自然语言处理技术会根据单词序列达成目标(如摘要、问答或翻译)的概率来进行选择。
它能通过上下文判断"club"一词是指三明治、高尔夫运动还是夜生活。该领域起源于20世纪50至60年代,当时让计算机分析和理解语言需要科学家亲自编写规则。如今,计算机已能通过训练自主建立这些语言关联。
**神经网络:**机器学习中一种模拟人脑神经元活动的技术。在大脑中,神经元通过传递信号驱动思维和情感。在人工智能中,人工神经元(或称节点)群组同样相互传递信息。人工神经元本质上是与其他人工神经元形成神经网络的连接点代码。
与旧式机器学习不同,它们持续在新数据上学习并从错误中汲取教训。例如,Pinterest运用神经网络,通过分析用户的海量数据(如搜索记录、关注的看板、点击及保存的图钉),来找出能吸引消费者眼球的图片和广告。同时,这些网络会分析用户的广告数据(例如哪些内容促使其点击广告),以了解其兴趣并推送更相关的内容。
深度学习:一种采用神经网络并持续学习的人工智能形式。“深度"一词指的是网络中多层的人工神经元。相较于擅长解决小规模问题的神经网络,深度学习算法凭借节点间的层级互联结构,能处理更复杂的任务。牛津大学博士候选人David Watson在2019年论文中指出,尽管其设计受人类大脑结构启发,但神经网络与真实人脑表现相比仍显脆弱、低效且短视。自多伦多大学三位研究人员2012年发表里程碑论文后,该方法迅速风靡。
插图:马丁·托尼奥拉**大语言模型:**能够总结、创作、预测、翻译和综合文本及其他内容的深度学习算法,因为它们基于海量数据进行训练。程序员和数据科学家的常见起点是使用互联网上开源、公开可用的数据集来训练这些模型。
大语言模型源自谷歌2017年开发的“Transformer”模型,该技术使得用海量数据训练模型成本更低、效率更高。OpenAI于2018年发布的首个GPT模型正是基于谷歌的Transformer架构(GPT即生成式预训练变换器)。被称为多模态语言模型的LLM可处理语言、图像、音频等不同模态。
插图:马丁·托尼奥拉**生成式AI:**一种能创造各类内容的人工智能,包括文本、图像、视频和音频。生成式AI的运作方式是用户向基础模型输入信息或指令(称为提示词),模型根据提示生成相应内容。基础模型是通过海量多样化数据训练出的一类模型,可用于开发更专业的应用,如聊天机器人、代码编写助手和设计工具。此类模型及其应用包括OpenAI的ChatGPT、谷歌Bard等文本生成器,以及OpenAI的Dall-E和Stability.ai的Stable Diffusion等图像生成工具。
去年11月,随着ChatGPT的发布,生成式人工智能的兴趣激增,它让人们能够通过日常语言输入问题或提示,轻松地与OpenAI的底层技术互动。同样,OpenAI的Dall-E 2能生成看起来非常逼真的图像。
这些模型在互联网以及更定制化的数据集上进行训练,以发现数据序列中的长期模式,使AI软件在写作或创作时能够表达出合适的下一个词或段落。
插图:martin tognola**聊天机器人:**一种能够以人类语言与人进行对话的计算机程序。现代聊天机器人依赖生成式AI,人们可以用人类语言向基础模型提问或给出指令。ChatGPT就是一个使用大型语言模型的聊天机器人例子,这里指的是OpenAI的GPT。人们可以与ChatGPT讨论从历史到哲学的各种话题,要求它以泰勒·斯威夫特或比利·乔尔的风格生成歌词,或对计算机编程代码提出修改建议。ChatGPT能够综合和总结大量文本,并将其转化为关于现有语言中任何话题的人类语言输出。
**幻觉:**当基础模型产生的回应没有事实或现实依据,但却表现得像是真实时,就称为幻觉。幻觉不同于偏见,后者是另一个问题,发生在训练数据中的偏见影响了大型语言模型的输出时。幻觉是生成式AI的主要缺点之一,促使许多专家推动对大型语言模型及其输出进行人工监督。
这一术语在2015年OpenAI创始成员安德烈·卡帕西的一篇博客文章后获得认可,他在文中描述了模型如何能“幻想”出文本回应,比如编造看似合理的数学证明。
**人工通用智能:**一种假设的人工智能形式,在这种形式下,机器能像人类一样学习和思考。尽管人工智能界对人工通用智能将包含什么尚未达成广泛共识,但研究公司IDC的技术分析师里图·乔蒂表示,它需要具备自我意识和知觉,以便能解决问题、适应环境并执行更广泛的任务。
包括Google DeepMind在内的公司正在致力于开发某种形式的人工通用智能。DeepMind表示,其AlphaGo程序被展示了大量业余比赛,这帮助它形成了对人类合理下法的理解。然后它与不同版本的程序对弈数千次,每次都从错误中学习。
随着时间的推移,AlphaGo不断改进,在学习和决策方面变得越来越好——这一过程被称为强化学习。DeepMind表示,其MuZero程序后来掌握了围棋、国际象棋、将棋和Atari游戏,而无需被告知规则,这展示了它在未知环境中规划制胜策略的能力。这一进展可能被一些人视为朝着人工通用智能方向迈出的渐进一步。
联系史蒂文·罗森布什,邮箱[email protected];联系伊莎贝尔·布斯凯特,邮箱[email protected];联系贝勒·林,邮箱[email protected]