人工智能安全:让机器人成为你的同事,而非霸主 - 彭博社
Catherine Thorbecke
与超级智能机器共存的路径探讨
摄影师:adventtr/iStockphoto/Getty Images
关于人工智能风险的认知存在两种流派:一种是《终结者》式的末日论调,认为人类终将臣服于机器人统治;另一种则认为即便无法成为朋友,机器也能成为重要伙伴。一位日本科技研究者提出,全球AI安全策略的关键在于重构框架,以实现这种人机良性协作。
2023年ChatGPT横空出世震撼世界之际,硅谷接连发出两轮关于强大AI工具带来生存威胁的警告。埃隆·马斯克联合多位专家和行业领袖呼吁暂停六个月开发高级系统,直至找到风险管理方案。随后包括OpenAI山姆·奥尔特曼和Alphabet旗下DeepMind德米斯·哈萨比斯在内的数百位AI领军人物联署声明警示:“降低AI灭绝风险应与应对疫情、核战等社会级威胁并列全球优先事项”。
彭博社观点最高法院在跨性别医疗问题上选择捷径NCAA不应享有反垄断豁免权美国正让世界变得更加危险黑人男性转向共和党的趋势可能并非昙花一现尽管人们高度关注潜在的灾难性风险,但近年来"加速主义者"的声音完全盖过了末日论者。企业和国家争相成为首个实现超人类AI的实体,对早期强调安全优先的呼吁置若罔闻。这一切都让公众感到极度困惑。
但或许我们的认知存在根本偏差。东京大学著名AI学者山川宏(研究该领域三十载)提出新观点:实现可持续发展的最可行路径是让人类与AI"共生共荣,守护彼此福祉,规避灾难性风险"。
好一个理想愿景。
山川的论述引发强烈共鸣——他在承认2023年警示的同时,为与超级智能机器共存提供了可行方案,尤其是在当前无人因恐惧落后而停止研发的背景下。换言之,若无法阻止AI超越人类,不如以平等伙伴身份与之同行。而"平等"正是敏感所在:人类始终希望保持优越性,而非与机器平起平坐。
该声明在日本学界引发热议,目前已获数十位学者联署,包括海外有影响力的AI安全研究者。山川接受《日经亚洲》采访时指出,亚洲文化更易将机器视为伙伴而非威胁。相较于美国创造终结者这类AI形象,日本孕育了铁臂阿童木和哆啦A梦等友好伙伴。
除了流行文化,这种文化接纳背后也有其真实依据。根据益普索去年六月的一项全球调查,仅有25%的日本受访者表示使用AI的产品会让他们感到不安,这一比例是所有国家中最低的,而美国人的比例高达64%。
然而,他的言论很可能会像许多其他关于AI风险的警告一样被置若罔闻。技术的发展有其自身的惯性。至于机器是否真的会发展到引发"文明灭绝"的地步,这仍然是一个极具争议的话题。可以说,行业对遥远科幻场景的部分关注,其实是为了转移人们对技术可能带来的更直接危害的注意力——无论是就业替代、版权侵权指控,还是对气候变化目标的背弃。
尽管如此,山川的提议为近年来停滞不前的AI安全辩论提供了一个及时的重新讨论机会。这些讨论不能仅仅依赖于耸人听闻的警告和缺乏治理的现状。除了欧洲,大多数司法管辖区都专注于放宽监管,以免落后。政策制定者不能等到为时已晚才采取行动。
这也表明,除了试图创造和销售这些产品的公司外,还需要进行更多的安全研究,就像社交媒体时代一样。这些平台显然缺乏动力向公众分享他们的发现。政府和大学必须优先考虑对大规模人工智能风险进行独立分析。
与此同时,尽管全球科技行业正忙于创造比人类更聪明的计算机系统,但我们是否能实现这一目标尚未可知。然而,将神级人工智能设定为目标已经引发了许多适得其反的恐慌。
将这些机器视为同事而非主宰者或许更有意义。
更多来自彭博观点的内容:
- 英伟达的“主权”人工智能目标与现实不符:Lionel Laurent
- TikTok过于轻易地重塑了饮食失调:Karl & Jarvis
- 加密货币兄弟与贸易一样构成风险:Andy Mukherjee
想要更多彭博观点? OPIN <GO> 。或者您可以订阅 我们的每日通讯 。