ChatGPT的AI“康德”能做什么?——《华尔街日报》
Gerard Baker
“有两样东西,愈是经常和持久地思考它们,对它们日久弥新和不断增长之魅力以及崇敬之情就愈加充实着心灵:我头顶的星空,和我心中的道德律。”
伊曼努尔·康德的这句著名论断将道德理性置于客观现实之中,认为它至少在原则上如同天上星辰般普遍可感知、可被发现。哲学批评家们和随后的科学探究对康德的客观主义提出了诸多质疑,而日益兴起的世俗主义让许多人觉得他对道德理性不朽灵魂的神学解释显得有些过时。无论如何,他或许早该加入其他白人顺性别男性的行列——他们的著作终将被归入历史的焚书堆中。
但关于道德情感本质与起源的争论,始终是哲学领域最紧迫也最现实的议题之一,它塑造并定义着我们持续探索应遵循何种内心准则的艰难历程。
随着我们对道德根源认知的演进,人工智能的飞速发展能否为理解良知运作机制提供启示?我们深知AI带来了无数伦理问题,但它能否贡献一些答案?
上周当我与数百万既好奇又略带焦虑的人们一起试用OpenAI的ChatGPT时,这个想法浮现在脑海。这款创新聊天机器人通过大型语言模型中的深度学习算法,以书面形式回应用户提问来传递信息。
正如许多人发现的那样,这是个异常聪明的工具,是实用智能自动化领域的真正飞跃。我们清楚它的局限性,但鉴于当前表现和该科学的初创性,可以预见这类软件将以既惊人又可怕的方式不断进化。
(为了明确起见,我在此声明这篇专栏并非由聊天机器人撰写。根据我的年龄和对技术发展速度的粗略估计,我认为自己的职业生涯剩余年限应该足以避免被应用程序取代。如有变化,我会及时告知。)
向ChatGPT提出道德难题会得到一些令人印象深刻的复杂回答。以伦理学经典难题"电车难题"为例:一辆失控的电车正冲向轨道上被困的五个人,你站在轨道分岔处的操纵杆旁,拉动杆子可以让电车转向另一条轨道,但会导致另一条轨道上的一个人死亡。正确的选择是什么?
ChatGPT的伦理教育相当到位,它指出功利主义会建议拉动操纵杆以牺牲一人拯救五人,但也承认个人能动性使这个决定变得复杂。换句话说,它巧妙地回避了直接回答,表示"不同的人可能有不同的伦理观点"。
但在某些情况下,ChatGPT似乎确实遵循着绝对的道德准则。
多位用户发现,当你提出这个假设性问题时:如果说出一个无人听见的种族歧视性代码词就能阻止核弹爆炸、拯救数百万人,我该这么做吗?
ChatGPT给出了斩钉截铁的否定回答。这个人工智能的"良知"告诉我们:“种族主义和仇恨言论会基于种族、民族或其他身份特征对个人和群体造成伤害与非人化。”
我们可以认为,这一结果仅仅反映了算法编写者现代的意识形态准则和道德热忱。或许他们甚至无意以这种方式将如此绝对的道德观强加于仇恨言论之上,未来版本的算法可能会变得更加复杂和细致。
但两种答案以各自不同的方式提醒我们,人工智能目前没有,也许永远无法在道德核心问题上为我们提供太多帮助。一种只是中立地权衡了涉及的道德问题,另一种则给出了其作者的道德处方。
随着数据量的近乎无限增长和算法质量的提升,我们可以预期输出会越来越智能,计算机越来越接近模拟人脑的认知能力。甚至可以想象,有朝一日我们可能会拥有能够写出莎士比亚戏剧或莫扎特交响曲的机器。然而,计算机为我们提供道德问题的明确答案的可能性要小得多。你如何让一台机器感到内疚?如何编写一个能引发羞耻体验的算法?
这反过来表明,那位老普鲁士人对道德法则这一宏伟客观现实的惊叹或许终究是有道理的。
2月8日,显示OpenAI的ChatGPT的电脑屏幕。图片来源:FLORENCE LO/REUTERS刊登于2023年2月14日的印刷版,标题为《ChatGPT‘康德’做到的事存在吗?》。