《华尔街日报》:《"认真对待科幻":全球领导人就人工智能发出警告》
Sam Schechner
英国布莱切利——在这片英格兰乡村的庄园里,二战时期的密码破译专家曾破解纳粹的恩尼格玛密码机。如今,世界各国领导人承诺将共同努力降低一项技术的风险,他们表示这项技术也构成严重威胁。
人工智能,他们表示,其最先进形态可能在网络安全和生物技术等领域造成灾难性风险,甚至可能脱离人类控制。
英国科学、创新和技术大臣米歇尔·多内兰引用曾在此庄园工作的一位密码破译者的话说:“有时值得认真对待科幻小说。”
在距伦敦约40英里处举行的为期两天的峰会开幕式上发表的声明中,美国、中国和其他二十多个国家承诺加强合作,评估比现有系统更强大的新一代人工智能系统(称为模型)带来的风险,并考虑制定管理其部署的法律框架。
英国科学、创新和技术大臣米歇尔·多内兰周三参加了在英国举行的人工智能安全峰会,与会的还有全球领导人和科技公司高管。图片来源:chris j ratcliffe/pool/Shutterstock联合声明称:“这些人工智能模型最重要的功能有可能造成严重的、甚至是灾难性的伤害,无论是蓄意还是无意。“声明提到恶意行为者可能滥用强大的人工智能系统,甚至可能失去对那些尚未被完全理解且难以预测的系统的控制。
该承诺是首份呼应关于强大新型AI模型可能对人类构成生存风险警告的重要国际声明。
关于应如何严肃对待这些警告及应对措施的辩论,成为本次会议的核心议题。与会者包括由美国副总统卡玛拉·哈里斯率领的美方代表团,以及埃隆·马斯克、OpenAI首席执行官萨姆·奥尔特曼等头部AI企业高管。
两位科技领袖均警告过他们所称的AI潜在破坏性——而他们各自的公司正在研发这类技术。
包括Meta Platforms政策主管、英国前副首相尼克·克莱格在内的其他人士则认为,这些推测性风险转移了人们对现实问题的关注,例如防范AI生成虚假视频干扰选举。
克莱格周二表示:“若过度担忧未来威胁,就会忽视眼前亟待解决的问题。”
周三开幕的英国AI安全峰会期间,多国领导人承诺将共同降低人工智能风险。图片来源:chris j ratcliffe/pool/Shutterstock美国周三宣布将在商务部设立AI安全中心,承诺与英国对应机构合作制定AI系统能力基准标准,并根据拜登政府新行政令收集AI企业报告数据。
英国还宣布了未来计划,明年将在韩国和法国举办人工智能安全峰会。
中国参与此次峰会被西方官员和行业高管视为值得关注,因为有人担心人工智能可能被用作世界超级大国之间军备竞赛的一部分。
“如果没有至少尝试让世界上所有领先的人工智能大国参与,就不可能制定出严肃的人工智能战略,”英国首相里希·苏纳克上周在一次演讲中表示。
中国科技部副部长吴朝晖在峰会开幕式上表示,中国支持国际社会建立人工智能测试和评估体系的工作。
由神一般的机器引发的人工智能末日威胁长期以来一直是流行文化迷恋的对象。但自从OpenAI的ChatGPT发布以来,这项新技术展示了其不可思议的能力,能够对几乎所有话题的问题提供合理且流畅的回答,这也使得它成为政策制定者应优先考虑事项的辩论主题。
哈里斯在周三的演讲中表示,专家们应扩大对安全性的定义,以涵盖更广泛的风险,包括她所说的已经存在的社会危害——如偏见、歧视或传播错误信息的能力。本周早些时候签署的美国行政命令针对了其中几个问题,峰会组织者周三也提到了这些问题。
这些担忧也得到了一些数字权利组织和工会团体的响应,他们在周一发表了一封公开信,批评此次峰会的优先事项。
信中写道:“这是关于被算法解雇,或基于你的身份或邮政编码而受到不公平的贷款评估。小企业和艺术家正在被挤出市场,创新被扼杀,少数大型科技公司获得了更多的权力和影响力。”
与此同时,一些人工智能研究人员对他们认为的人工智能带来的灾难性风险表示担忧,敦促政策制定者对最先进的人工智能系统的发展进行控制。
未来生命研究所是一个非营利组织,今年春天曾组织签署了一封公开信,呼吁暂停六个月开发最先进的人工智能系统。该组织在峰会上推动制定具有约束力的规则,迫使公司证明他们的系统不会带来潜在的生存威胁,而不是由政府监管机构来证明威胁的存在。
尽管如此,麻省理工学院教授、未来生命研究所主席马克斯·泰格马克在峰会前表示,他会将一份共同声明视为进展。
他说:“即使只是一份承认这是一个真实风险的共同声明——这也是一个巨大的进步。”
联系萨姆·谢克纳,邮箱:[email protected]
本文发表于2023年11月2日的印刷版,标题为《领导人承诺采取行动限制人工智能的危害》。