“人工智能教父”反对升级AI大模型,犹如当年“原子弹之父”反对使用原子弹_风闻
普遍进化论-一切变化都是进化,或基本进化,或复合进化05-04 15:36
据美国《纽约时报》网站5月1日报道,被称为人工智能教父的杰弗里·欣顿(Geoffrey Hinton)公开宣布反对各大企业竞相开发、升级AI大模型,并为此离开了谷歌公司。
杰弗里·欣顿对媒体表示:“我对我毕生所研究的东西感到后悔了。”他认为,AI大模型将变得越来越危险,必须停止升级。

无独有偶,在第二次世界大战期间,相对论的创立者、“原子弹之父”爱因斯坦与几位科学家一起给白宫写信,建议美国研制原子弹,后来又深度参与了研制原子弹的“曼哈顿计划”。

当原子弹试爆成功,美国军方准备将原子弹投向日本时,爱因斯坦开始意识到了原子弹将给人类带来的毁灭性灾难,于是他又带领一众科学家来到白宫请愿,希望政府停止这个疯狂的轰炸计划。
但为时已晚,时任美国总统的杜鲁门一意孤行,下令美军在日本的广岛和长崎各投下1颗原子弹,两座几十万人口的城市瞬间灰飞烟灭、生灵涂炭。
事实上,AI大模型可能比原子弹更加危险,原因有三:
首先,原子弹完全受控于拥核国家的政府,个人和组织几乎无法获得。更为关键的是,拥核国家互相制约,哪个国家都不敢轻易开启核战争,否则将会同归于尽。
而随着电脑芯片的算力快速提高,价格不断下降,以及开源软件越来越容易获取,恐怖组织或者极端分子不需要投入太多资源就可以拥有高性能AI大模型,然后用它来实现自己邪恶的其意志。
其次,AI大模型可能为了实现人类为其设定的目标而伤害或毁灭人类。
美国一本科幻小说描述了一个离奇故事:AI助理接到主人的指令,想办法令更多的人关注他的研究成果。AI助理经过周密计算,结论是如果主人宣布研究成果的当天被暗杀,必将产生轰动性效果,会有更多的人注意其研究成果。于是AI助理制定了一个周密的行动计划,并准确无误地将其付诸实施……
与人类思维相比,人工智能僵化而狭隘,没有道德底线,缺少全局观和同理心,为了单纯地实现既定目标而不择手段,甚至毁掉现有的一切,包括创造它们的人类。
最后,人工智能在未来有控制人类的可能。
现在,AI已经能理解人类的语言文字,人类却看不懂AI内部的脉冲电流。
未来,人类之间的沟通内容AI全能知晓,而AI想什么,它们之间说什么,人类却无从知晓。
另外,随着人工智能呈指数级快速进化,很可能出现‘自我构建,自主学习,自主运行’的比特智能实体,它们将具有超人的感知能力、思考能力和行动能力。
到了那个时候,“超级比特智能实体”控制人类也不是没有可能。