联合国专家呼吁各国避免使用人工智能进行战争 - 彭博社
Augusta Saraiva
自从最近一波人工智能创新以来,国际监管机构和世界领导人一直试图为快速发展的技术设定保护措施。
摄影师:Ed Ram/Getty Images一个联合国专家小组呼吁各国严格限制人工智能的军事使用,以防止人权侵犯和新军备竞赛的出现。
各国应在与武器制造商的合同中设置法律保障,以防止人工智能的不道德发展,技术公司应考虑实施机制以避免其被滥用,安东尼奥·古特雷斯秘书长召集的人工智能咨询机构在周四发布的报告中表示。
该小组包括政府官员以及来自 Alphabet Inc. 的谷歌、微软公司 和 OpenAI 的高管,警告称,人工智能的军事使用可能会引发新的全球军备竞赛,模糊战争与和平的界限,并使恐怖组织获得新技术。
“从法律和道德的角度来看,杀戮决策不应通过人工智能自动化,”该小组写道。“各国应承诺在武装冲突中以不完全符合国际法的方式,避免部署和使用人工智能的军事应用。”
军事上对人工智能的使用已成为一个日益关注的问题,因为包括美国和中国在内的各国急于将这一技术纳入其武装力量,而以色列则在与哈马斯的战争中部署它。古特雷斯呼吁各国在2026年前就自主武器谈判一项新条约,以禁止和规范人工智能武器系统。
报告还建议采取额外措施,以推动全球关于人工智能的对话,包括建立一个基金,以支持希望发展人工智能能力的贫穷国家,以及设立一个联合国驻地办公室,以提供科学进展、治理和政策设计的建议。
该小组认为,人工智能治理讨论迄今为止过于分散。
自从过去两年在ChatGPT发布后,人工智能创新的最新浪潮以来,国际监管机构和世界领导人一直在努力为迅速发展的技术设定界限。尽管美国总统乔·拜登在去年联合国大会上的讲话中强调了规范人工智能的必要性,但尽管立法者和企业(包括OpenAI)呼吁采取行动,这种言辞迄今未能在华盛顿产生强有力的法规。
中国已实施了自己的严格指南,而欧盟则批准了全球最全面的人工智能规则清单。今年3月,欧盟通过了《欧盟人工智能法》,该法为人工智能系统的开发者设定了规则,并限制了技术的使用方式。
“这项技术太重要,风险太高,不能仅依赖市场力量和分散的国家及多边行动的拼凑,”该小组写道。