第二届全球人工智能峰会获得公司安全承诺 | 路透社
Joyce Lee

第1项,共2项,文字为“人工智能”,机器人微型模型和玩具手在2023年12月14日拍摄的插图中出现。路透社/Dado Ruvic/插图/档案照片
文字为“人工智能”,机器人微型模型和玩具手在2023年12月14日拍摄的插图中出现。路透社/Dado Ruvic/插图/档案照片首尔,5月21日(路透社) - 十六家在人工智能开发前沿的公司在全球会议上承诺,在监管机构努力跟上快速创新和新兴风险的情况下,安全地开发该技术。
这些公司包括美国的领导者谷歌(GOOGL.O)、Meta(META.O)、微软(MSFT.O)和OpenAI,以及来自中国、韩国和阿联酋的公司。他们得到了七国集团(G7)主要经济体、欧盟、新加坡、澳大利亚和韩国在由英国首相里希·苏纳克和韩国总统尹锡悦主持的虚拟会议上的更广泛声明的支持。
韩国总统办公室表示,各国已同意优先考虑人工智能的安全、创新和包容性。
“我们必须确保人工智能的安全,以… 保护我们社会的福祉和民主,”尹表示,并指出对深度伪造等风险的担忧。
与会者指出了治理框架之间互操作性的重要性,安全机构网络的计划,以及与国际机构的互动,以便在第一次会议上建立 协议,以更好地应对 风险。承诺安全的公司还包括 Zhipu.ai, - 由 中国的阿里巴巴 (9988.HK)、腾讯 (0700.HK)、美团 (3690.HK) 和小米 (1810.HK) - 阿联酋的技术创新研究所、亚马逊 (AMZN.O)、IBM (IBM.N) 和三星电子 (005930.KS)。他们承诺发布用于衡量风险的安全框架,以避免无法充分减轻风险的模型,并确保治理和透明度。
“获得国际协议以确定人工智能发展在何种情况下会对公共安全构成不可接受的危险是至关重要的,”METR的创始人Beth Barnes在回应声明时表示。
被称为“人工智能教父”的计算机科学家Yoshua Bengio欢迎这些承诺,但指出自愿承诺必须伴随监管。
大型语言模型公司Cohere的联合创始人Aidan Gomez在峰会期间表示,自11月以来,关于人工智能监管的讨论已从长期的末日情景转向更实际的关注点,例如如何在医学或金融等领域使用人工智能。
中国在11月初的第一次会议上共同签署了“布莱切利协议”,以共同管理人工智能风险,但没有参加周二的会议,南韩总统官员表示将参加周三的面对面部长会议。
特斯拉的埃隆·马斯克、前谷歌首席执行官埃里克·施密特、三星电子董事长李在镕以及其他人工智能行业领导者参加了会议。
官员们表示,下次会议将在法国举行。
科技汇总通讯将最新新闻和趋势直接送到您的收件箱。请在 这里注册。