2026-03-01
分享到
你敢信吗?十年前,中国就开始呼吁要管控“由机器人自主决定是否杀人”的问题。然而,当时美英印等国家却完全不以为然,觉得这一问题离现实太远,订立相关约束条款不过是捆住自己的手脚罢了。结果,短短几年之后,AI技术迅猛发展,各种自主武器层出不穷,这些当初反对的国家开始后悔不已:“早知道听中国的就好了!”
2014年春天,在日内瓦举行的特定常规武器公约会议上,中国代表率先站出来提出:“必须给‘完全自主的致命武器’设立规则,不能让机器自己决定谁该死!”其实,这话的核心意思很简单:如果武器一旦脱离了人类的控制,万一算法识别错误,系统崩溃,或者被黑客攻击,那就可能带来无法收拾的后果。但当时在场的几乎没有人愿意响应这个提议。美国、英国、印度等军事大国,要么只是表示“再看看技术发展”,要么直接反对,认为“过早设限会束缚创新”。结果,会议上没有产生任何实质性的文件。毕竟,那时AI只是实验室中的新鲜玩意儿,谁也没预料到这会成为日后的武器风险。事实上,中国后来又在2016年和2019年两度提出类似建议,呼吁“禁止或严格限制此类武器”,并推动签订具有法律约束力的国际文件。到2021年12月,中国依然在多边场合强调:“不能让AI被滥用在军事领域,必须始终有人在背后监督,不能让机器在无人监管的情况下发动攻击!”
可是,那几年,这些提议依然没有受到足够重视。为什么?因为这些大国认为,“只要最终的决策权在指挥官手中,AI系统就不会出错”。再加上,很多国家当时在技术上占有领先地位,害怕一旦签署了相关协议,自己反而会被别人追赶上,丧失战略优势。可AI这玩意儿发展得根本不按常理出牌!不到十年的时间,深度学习取得了突破,计算能力的成本大幅下降,各类大模型纷纷涌现,而军民技术的界限也愈加模糊。如今,许多商业公司的AI算法只需稍作调整,就能应用于武器领域。现在,我们已经能够看到什么呢?自主无人机群,几架小型飞机能够协同作战、精准打击目标;智能无人战车,能够在复杂地形中自如行驶;机器狗,它们能适应环境、紧跟人类,甚至携带装备。这些技术早已不再是科幻小说中的情节,它们已经真实地出现在各国军队的面前。 这一切让当初反对的国家感到坐立不安。华盛顿方面甚至有声音私下说:“真该后悔当初没听中国的建议!”为什么?因为如今,AI武器带来的风险已经变得愈发严重。过去,军用自主系统基本都是大国封闭研发,只有少数国家拥有这样的技术。但现在不同了:底层技术逐渐开源,商业公司的算法框架可以自由修改,军民之间的界限越来越模糊,甚至一些小国家和非国家组织也能接触到这类技术,扩散风险迅速上升。例如,最近有报告指出,在中东的冲突中,已经出现了小型自主无人机,单个操作者可以控制十几架飞行器,其火力已经远超以往。而另一个更为棘手的问题是网络安全。如果这些自主武器被黑客攻击,或是数据遭到篡改,导致目标识别错误,后果可能极其严重。过去,武器发生误判时,虽然可能是情报错误,但人类指挥官仍然能及时调整;然而如今,算法系统的错误可能在毫秒间被放大,反应的时间几乎为零。比如,如果自主无人机的系统被黑,错误地将平民识别为敌方目标,后果可想而知——这不再是科幻,而是目前亟待解决的现实风险。
早些年,军事专家曾分析过,很多国家之所以当初不支持中国的提案,核心原因在于战略优势和技术领先的考量。例如,美国是全球无人机技术的领头羊,如果签订约束协议,未来如何继续发展更先进的自主武器?俄罗斯将自主武器视为对抗美国高技术优势的手段,印度近年来也加大了对无人系统的投资,意图在南亚地区提升技术实力;英国则表示:“我们支持负责任地使用这些武器,而不是全面禁止。”归根结底,这些国家担心自己的技术优势在未来的竞争中被削弱。
然而,眼下的局面是,虽然国际规则尚未完善,相关的风险已经显现。多国智库的报告警告,如果没有明确的规章制度,小型无人平台和高精度算法结合,冲突中的武器部署将变得更加普遍,单个操作员能操控的火力将远超过去。历史上,许多国际规则的制定都是在风险逼近时才引起足够重视。但对于AI武器而言,一旦真正爆发风险,其代价远比传统武器高得多——毕竟,机器不会犹豫、不会反思,错了就是错了,根本无法挽回。如今,那些曾经忽视中国警告的国家,是否还能及时回头,接受这份早该接受的提议呢?返回搜狐,查看更多PG电子网页版PG电子网页版