AI真会让你失业吗?结果取决于如何获取和使用3种知识(之二)_风闻
普遍进化论-一切变化都是进化,或基本进化,或复合进化05-01 20:25
摘要:AI大模型(GPT)是如何生成知识的?与人类相比有哪些优势?有哪些局限性?本文从普遍进化论的视角,来分析哪些职业容易被AI取代,哪些职业比较安全。文章分为三个部分,本文是第二部分。
AI大模型是一种“部分功能型”比特智能实体
普遍进化论把所有智能实体分为4个类别,即基因智能实体、信号智能实体、符号智能实体和比特智能实体,AI大模型属于比特智能实体。
根据知识表征系统、知识进化系统和知识表达系统的功能强弱不同,比特智能实体还可分成两大类别:部分功能型比特智能实体(植物型)和完整功能型比特智能实体(动物型)。
AI大模型知识表征和知识表达能力较弱,知识进化能力很强,属于“部分功能型”比特智能实体。
AI大模型主要特点体现在以下3个方面:
AI大模型的知识获取和生成方式
现在的主流AI大模型,如OpenAI公司的ChatGPT、百度的“文心一言”,阿里巴巴的“通义千问”、商汤的“日日新”等,都属于自然语言模型。
AI大模型的输入和输出都是人类的自然语言——符号知识,但是运算过程,或者知识进化状态则是比特知识。
往简单了说,比特知识进化就是一个由多个“元素组合+条件选择→稳态组合体”基本进化单元组成的进化过程。
我们以ChatGPT为例来说明这个过程。
首先,ChatGPT要“学习”很多比特化的符号知识,并从中获取各种词组、短语、句子、段落等多个层次组合出现的概率,也可以理解为“组合规律”。
其次,ChatGPT要通过“内置规则”,来剔除不符合人类需求的组合,这就是条件选择。
这些内置规则可能是在编程时人工设定的,也可能是ChatGPT通过学习人工标注的语料学会的。
比如,人们把一些涉及暴力、色情等词汇进行标注,告诉ChatGPT这些词汇不能接收和输出。
最后,专业人员再对ChatGPT输出的结果进行评判,告诉ChatGPT哪些是正确的,哪些是错误的,这样就使得ChatGPT的产出和人类的常识、认知、需求、价值观保持一致。
总之,ChatGPT的知识创造过程就是一个比特化符号知识的“组合”、“选择”过程,即比特知识的基本进化过程。
与人类思维相比,AI大模型的三大优势
1、知识丰富,能力全面:AI大模型的训练数据大都在数百个TB水平,还能随时从互联网上获取海量数据。随着越来越多的语音、文字和图像(符号知识)转换为大数据(比特知识),AI大模型也变得越来越“博学多能”。
所以,AI大模型不但“记住”的知识量远超人类,而且还是一个多面手,能写诗、作画,还能编程、作曲。
2、算力强大,产出高效:AI大模型能够快速地完成多样化任务。比如,人类几天画一幅画,它可以在几秒钟内产生数张画作。
3、快速进化,快速迭代:由于比特知识进化速度远超信号知识和符号知识,因此,AI大模型的迭代速度往往超乎人们的想象。
AI大模型的局限性:脱离实际,纸上谈兵
人类是一个复合型智能实体,不但拥有符号智能,还同时拥有信号智能和基因智能。
人类在突发情况下,或者做出重大决策时,或者在生死攸关时刻,起决定作用的往往不是符号智能,而是信号智能或基因智能。
信号智能或基因智能的决策依据是几百万年,乃至几十亿年的进化积累,这样的决策更具有大局观,更能经得住时间的考验。
比如,我们紧急避险的本能快速而有效,此时没有经过符号知识的逻辑思考,而是信号知识在发挥作用。
父母在危机情况下拼死保护子女的行为动机,不大可能来自符号知识的逻辑推理,更可能源于“自私的基因”。
更为重要是,人类拥有的信号知识和符号知识,大都是通过“信号知识-实体系统”复合进化、“符号知识-实体系统”复合进化获取的,与实体联系密切。
而AI大模型输出的知识,仅仅是有限数量的比特化符号知识封闭进化的结果,没有经过复合进化的检验,无法真实表征实体世界。
这些知识看起来似乎合情合理,有时还非常惊艳,却属于纸上谈兵,空中楼阁。
因此,AI大模型经常出现“人工智能幻觉”、“一本正经地胡说八道”等情况,也就不足为奇了。