观点 | 由人工智能引发的核战争听起来像科幻小说,但事实并非如此 | 南华早报
Sundeep Waslekar
我们正忽视地平线上的一道幽灵。那是人工智能(AI)引发全球核战争的幽灵。联合国秘书长古特雷斯已对此发出警告,但迄今为止拥核国家始终回避讨论这一毁灭性威胁。他们辩称,五大核强国对"人在回路"原则存在非正式共识。五国均表示未在核发射指挥系统中部署AI。这虽属实,却具有误导性。
这些国家将AI用于威胁识别与目标选择。AI驱动系统实时分析来自传感器、卫星和雷达的海量数据,评估来袭导弹攻击并推荐应对方案。操作人员需交叉验证不同来源的威胁信息,决定拦截敌方导弹或发动报复性打击。当前人类操作员的决策窗口为10至15分钟,到2030年将缩短至5至7分钟。即便最终由人类决策,其判断也将受AI预测分析与建议的左右。最早到2030年代,AI或将成为导弹发射决策的幕后推手。
最早到2030年代,AI或将成为导弹发射决策的幕后推手。图片来源:路透社
问题在于人工智能容易出错。威胁检测算法可能会误报不存在的导弹袭击,原因可能是计算机故障、网络入侵或环境因素干扰信号。如果人类操作员未能在两三分钟内通过其他渠道确认这是误报,就可能启动报复性打击。众所周知,AI在犯罪预测、人脸识别和癌症预后等民用领域的误差率约为10%。在核预警系统中,这一比例可能降至5%左右。随着图像识别算法在未来十年精度提升,误差率或降至1-2%。但即便是1%的误差,也可能引发全球核战争。
未来两三年随着新型自主恶意软件出现,这种风险将加剧。这类恶意软件能绕过威胁检测系统,自适应规避侦测,自主识别目标并实施攻击。
冷战期间曾多次出现千钧一发时刻。1983年,苏联卫星误判美国发射了五枚导弹,塞普霍夫-15指挥中心的斯坦尼斯拉夫·彼得罗夫军官判定为误报,未向上级报告——后者本可能发动反击。1995年,奥列涅戈尔斯克雷达站侦测到挪威沿海的"导弹袭击",俄罗斯战略部队进入高度戒备,时任总统叶利钦拿到了核手提箱。他怀疑是系统误判而未按下按钮,后证实是科研火箭。若当时由AI决定应对措施,后果不堪设想。
朝鲜官方媒体称,1月试射的是一种新型高超音速导弹系统。照片:朝中社通过KNS/法新社发布
目前,高超音速导弹仍采用常规自动化技术而非人工智能。其飞行速度可达5至25马赫,能规避雷达探测并机动调整航迹。各军事强国正计划为高超音速导弹加装人工智能系统,以实现对移动目标的自主定位与即时摧毁,将杀伤决策权从人类移交给机器。