各国在联合国召开"杀手机器人"会议,监管步伐滞后 | 路透社
Olivia Le Poidevin
2023年2月27日,瑞士日内瓦联合国人权理事会期间,一栋建筑上悬挂着旗帜。路透社/丹尼斯·巴利布斯/档案照片日内瓦,5月12日(路透社)——各国周一在联合国召开会议,重启对现代战争中日益增多的AI控制自主武器的监管努力。专家警告称,为这项新型致命技术设立防护栏的时间所剩无几。
从乌克兰到加沙的冲突中,自主和AI辅助武器系统已扮演更重要的角色。全球国防开支的增长势必将为蓬勃发展的AI军事技术注入新动力。《路透每日简报》为您提供开启一天所需的全部新闻。立即订阅。
然而,制定全球性开发使用规范的进展始终滞后。具有国际约束力的标准至今仍近乎空白。
自2014年起,《特定常规武器公约》缔约国持续在日内瓦磋商,试图禁止完全脱离人类有效控制的自主武器系统,并规范其他类型。
联合国秘书长古特雷斯设定2026年为最后期限,要求各国[制定明确规则(新窗口打开)](https://craft clear rules on how AI weapons are used)关于人工智能武器使用的讨论。但人权组织警告称,各国政府间缺乏共识。奥地利外交部军控司司长亚历山大·克门特表示,这种状况必须迅速改变。
“现在亟需建立防护措施,否则一些顶尖专家警告的噩梦场景将成为现实,“他告诉路透社。
周一联合国大会在纽约举行的会议,将是该机构首次专门讨论自主武器的会议。
虽然不具法律约束力,但外交官员希望通过磋商向军事大国施压——这些国家因担心规则会削弱技术战场优势而抵制监管。
倡议组织希望此次会议(还将讨论《特定常规武器公约》未涵盖的关键问题,包括伦理和人权关切以及非国家行为体使用自主武器)能推动各国达成法律文书。
他们视此为9月下一轮《特定常规武器公约》谈判前,检验各国能否弥合分歧的关键试金石。
“这项技术发展如此迅猛,需要通过具有法律约束力的条约来澄清问题,“国际特赦组织军事、安全与警务研究员帕特里克·威尔肯表示。
“竟然有人不愿排除将生死决策权…交给机器的可能性,这简直匪夷所思。”
军备竞赛
纽约会谈前夕,164个国家支持了2023年联合国大会要求国际社会紧急应对自主武器风险的决议。
据国际特赦组织称,尽管多国支持具有约束力的全球框架,但美国、俄罗斯、中国和印度倾向于采用国家指导方针或现行国际法。
美国国防部发言人向路透社表示:“我们尚未被说服现行法律存在不足”,并补充说自主武器实际上可能比常规武器对平民构成的风险更小。
印度、俄罗斯和中国政府未对置评请求作出回应。
在缺乏监管的情况下,自主系统正在激增。
未来生命研究所智库的武器专家追踪到约200套自主武器系统在乌克兰、中东和非洲的部署情况。
例如,根据其数据,俄罗斯军队已向乌克兰部署了约3000架"天竺葵"自杀式无人机——能够自主探测和攻击目标。
与此同时,乌克兰在冲突中使用了半自主无人机。乌克兰政府拒绝置评。
以色列已使用人工智能系统识别加沙的目标。其驻日内瓦代表团表示支持多边讨论,并完全按照国际法使用数据技术。
然而,人权观察组织表示,国际法下的责任关键问题仍未解决,并在上个月的一份报告中警告称,不受监管的自主武器对人权构成一系列威胁,如果不加以控制,可能引发军备竞赛。
而"停止杀手机器人"组织的活动人士劳拉·诺兰等人担心,目前几乎没有措施能确保防务公司负责任地开发人工智能驱动的武器。
“我们通常不信任行业能自我监管…没有理由认为国防或科技公司更值得信赖,“她说。
- 推荐主题:
- 社会与公平
- 人权