心理学家解释人工智能与算法如何改变我们的生活——《华尔街日报》
Danny Lewis
在ChatGPT时代,计算机算法和人工智能日益深入我们的生活,它们决定我们在网上看到的内容、推荐我们聆听的音乐,并解答我们的疑问。
德国波茨坦大学哈丁风险素养中心主任、心理学家和行为科学家格尔德·吉仁泽指出,这些算法可能正以我们尚未完全理解的方式改变着世界和人类行为。作为马克斯·普朗克人类发展研究所适应性行为与认知中心的前任主任,他数十年的研究帮助我们理解了人类在面临不确定性时如何做出选择。
吉仁泽博士在其新书《智能时代如何保持智慧》中探讨了算法如何塑造我们的未来,并强调了牢记"算法非人"这一认知的重要性。他接受了《华尔街日报》“万物未来"播客的专访。
如今"算法"一词被频繁提及。当我们谈论算法时,究竟在讨论什么?
这是个宏大的命题,因此明确讨论范畴至关重要。我在马克斯·普朗克研究所的研究发现:在稳定且定义明确的情境下,深度神经网络等复杂算法的表现优于人类,国际象棋和围棋这类规则稳定的游戏就是例证。但对于非稳定性问题——比如预测新冠病毒这类变异病毒——则不宜依赖复杂算法。[应对]不确定性正是人类思维的强项,我们能识别关键线索并忽略冗余信息。在这类定义模糊的问题上,复杂算法反而表现不佳。我称之为"稳定世界原则”,这是理解人工智能能力边界的第一条线索,也提示我们:要充分发挥AI潜力,必须让世界变得更可预测。
心理学家和行为科学家格尔德·吉仁泽表示:“我们必须警惕科技公司出售那些决定我们生活某些方面的黑箱算法。”图片来源:霍斯特·加卢什卡/dpa/Getty Images### 经过这几十年的计算机科学发展,算法归根结底是否仍然只是运行越来越复杂方程的计算器?
不然它们还能是什么?深度神经网络有很多很多层,但它们仍然是计算机器。在视频技术的帮助下,它们可以做到比以往更多的事情。它们可以绘画,可以构建文本。但这并不意味着它们能像人类一样理解文本。
了解这些算法如何做出决策对人们有帮助吗?
透明度极其重要,我认为这应该是一项人权。如果算法是透明的,你实际上可以对其进行修改,并重新开始自己思考,而不是依赖一个并不比一群低薪工人更好的算法。因此,我们需要理解在哪些情况下需要人类判断,并且人类判断更优。同时,我们必须警惕不要陷入科技公司出售那些决定我们生活某些方面的黑箱算法的境地。这涉及到包括你的社会和政治行为在内的一切,然后人们就会失去对政府和科技公司的控制。
您写道“数字技术很容易使天平向专制体系倾斜”,为何这样说?这与过去的信息技术有何不同?
这种危险确实存在。在数字技术带来的所有好处中,其中一个弊端就是政府和技术公司倾向于进行监控。但人们不再阅读隐私政策,所以他们并不知情。而且隐私政策的设置方式让你实际上无法真正阅读它们——太长太复杂了。我们需要重新掌控局面。
那么我们应该如何明智应对这类问题?
想象你家乡有家提供免费咖啡的咖啡馆。因为免费,所有人都去那里,其他咖啡馆都倒闭了。你别无选择,但至少能喝到免费咖啡,享受与朋友的交谈。但桌上装有麦克风,墙上布满摄像头,记录你说的每句话、每个词、对话对象,并发送出去分析。咖啡馆里满是推销员,不断打断你以推荐个性化产品。这大致就是你在Facebook、Instagram等平台上的处境。[Facebook和Instagram母公司Meta Platforms Inc.拒绝置评。]在这家咖啡馆里,你不是顾客,而是产品。因此我们需要一家允许自己付费的咖啡馆,让我们重新成为顾客。
我们看到个性化广告的整个基础设施已融入互联网架构。要改变这种局面似乎需要相当严厉的干预。现实而言,您认为未来十年左右技术、人工智能和监控会朝什么方向发展?
总的来说,我更希望人们能意识到,将自己的数据和决策权交给那些通过广告盈利的科技公司并非明智之举。这不该是我们的未来。在其他所有领域,我们用自己的金钱支付,因此我们才是掌控一切的客户。一个真正的危险是,越来越多人正梦游般步入监控社会,仅仅因为便利就全盘接受一切。
但当一切如此便捷时,阅读隐私政策、研究这些影响我生活的算法似乎很困难。我该如何反抗?
最省事的方法就是不去思考。而另一种选择是开始思考。最需要警惕的[技术]是心理学家称为"间歇性强化"的机制。你会得到诸如"点赞"这样的强化刺激,但永远无法预知何时获得。人们会不断返回平台查看点赞,这彻底改变了心理状态,使人产生依赖。我认为每个人都必须理解这些机制及其成瘾原理,这样才能在想要时重获掌控权。
本访谈经过精简编辑。
联系Danny Lewis请致信[email protected]