【小狗】“末日之门”AI军事化——第一个冲线的是美军_风闻
小狗2017-微信公号—“小狗2017”—已开通,请关注、指正2019-11-05 13:14
AI军事化和核武器的出现不一样,因为核武器不论威力多大,按钮都在人类手中,人类不按键,核弹不引爆。
AI就不同,哪怕AI只控制一支手枪,却拥有自主意识,可以决定何时,对谁开枪。从这个角度上说,AI军事化、致命化,比核武器的出现更加致命!
出人意料,本来我以为以色列、伊朗、朝鲜这样外部压力极大,处于某种困境中的中等强国,会率先冲线,开启AI军事化步伐,打开潘多拉磨盒。
没想到,臭不要脸,第一个冲线的——是美军!

(图片转自网络)
美国很有可能成为全世界首个推出人工智能军事化伦理标准的国家。
11月1日,美国国防部下属的国防创新委员会推出了最终版的《人工智能伦理道德标准》。其实该标准酝酿已有数年。2018年7月,该委员会提出了标准的草案版本,并通过听证会接受了上百位业内人士的意见。此次最终版本在委员会投票中得到一致支持。
近年来,美国军方显著加快了人工智能应用的速度,试图借助这一新颠覆性技术,彻底改变美军的作战模式。早在2019年2月,国防部发布首份美军人工智能战略文件,要求利用人工智能促进美国安全与繁荣,将人工智能赋能引入到具体军事任务中。
美军快速引入人工智能技术,也在美国内外引起了广泛担忧。一些观察人士开始担心美军的步子迈得太快,可能产生新的安全风险。而此次国防创新委员会的伦理道德标准,就是着眼于解决这些潜在风险,明确美军利用和研发人工智能的限制。
国防创新委员会提出了五项核心标准:即负责、公平、可追踪、可靠、可控。其中,公平和可控两条标准的争议性较大。
委员会所提出的公平是指,美军在开发和部署人工智能化的装备时要避免出现意料之外的偏差,而这些偏差会在无意中对人员造成伤害。实现这条标准有很高难度。
可控的理念,则试图给人工智能技术加上“保险丝”。委员会建议美军在人工智能系统和装备中设有“自动或手动”停机开关,一旦该设备运转偏离使用者和设计者初衷,作战和指挥人员就能立即关闭系统。
委员会所提出的伦理道德标准看似严苛,但解除了美军应用人工智能的最大禁忌。
五条伦理标准中既没有包括禁止美军将人工智能技术应用于致命性武器,也没有限制人工智能化武器的攻击目标。这意味着美国已经彻底放弃了“人工智能非军事化”理想目标,将其全面引入作战领域。这也给美军未来应用人工智能提供了有利的说辞和合法性依据,让美国社会接纳一个人工智能化的美军。
基于委员会的此份报告,美国很有可能成为全世界首个推出人工智能军事化伦理标准的国家。
从全球范围看,伦理标准是人工智能治理的先导性规则。从道德和伦理上探讨人工智能,表明该技术的发展和使用可能对人类社会带来重大的影响,可能改变人类社会的基本形态。人类社会当前所依赖的道德和伦理标准,对人工智能研发者和使用者尚没有足够限制,需要基于该技术发展变化提出新的伦理标准。
伦理标准也是国际社会在人工智能治理领域最广泛谈论的内容。谷歌等美国科技巨头、各国政府、科技界的非政府组织都提出了自己的人工智能伦理。各方在这一问题上的博弈与合作刚刚开始。
美国则在这场人工智能的国际规则之争中开辟了新的战场,即人工智能军事化领域。美国所提出的标准与联合国致命自主武器系统所倡导的原则有一定差异,也不同于欧盟、中国等反对“人工智能军事化”的基本立场。
下一阶段,美国会试图将自己的伦理标准演变为该领域国际规则的根本性原则,获取人工智能军事化的“最终解释权”。
俄罗斯在苏-35上也采用了AI辅助决策系统,但这样的AI只是提出策略建议,供飞行员选择,并不能直接连接和指挥武器发射!
苏-35AI并未和致命武器直接连接,也没有这个下命令的权限,只是一个电脑参谋。
这和美军现在设定的——AI可以直接决策、实施致命攻击——是完全不同的!
美军在“伦理标准”中给AI军事化也设定了防线“可控”,可惜,这就是一层窗户纸,AI具备自主意识后,自然可以演算,穷尽一切方法,寻找某个机会、漏洞,冲破、绕过人类的“控制”。
美军一旦开启了AI武器化、致命化这个“末日之门”,局面可不可控,就不是由人类说了算了。
拙作链接:【小狗】AI消灭人类——路线图

(图片转自网络)
——
——
本小狗微信公号
小狗2017
请关注