根据美国国防部的消息,该部门已与全球多家领先的前沿人工智能公司达成协议,允许它们在美国防部的机密网络上部署先进的人工智能技术,用于合法作战用途。这些公司包括美国太空探索技术公司(SpaceX)、开放人工智能研究中心(OpenAI)、谷歌、英伟达、Reflection、微软和亚马逊云服(AWS)等。
美国国防部的声明称,这些协议将加速美国军队向人工智能优先作战力量转型,并增强美军在所有作战领域保持决策优势的能力。

美国防部声明截图 (图源:美国防部)
专家:AI在深刻改变现代战争
在人工智能(AI)快速发展的今天,人工智能在军事上的运用会带来哪些变化?中国国际问题研究院世界和平与安全研究所助理研究员谢卉在接受环球资讯《闪评》栏目专访时认为:人工智能不是简单的去增加一种新武器,而是在深刻地改变现代战争的组织形态,指挥模式和作战方式。
从近年一些地区冲突可以看到,人工智能的军事应用大体分为两个方向,一类是用于军事支撑体系,比如快速处理卫星、无人机、雷达和通信数据,帮助军队更快掌握战场态势,筛选目标,制定方案。
另一类是用于武器系统,比如无人机自主识别、目标规划路线、协同作战以及辅助火力控制等,它带来的变化是深层次的。
过去军事力量更多的比拼平台火力和兵力规模,现在越来越转向数据算法算力和体系协同能力的竞争。人工智能可以提高情报处理效率和打击精度,减少人员暴露在高风险战场中的机会,也可能降低部分装备和弹药损耗,但同时它也会压缩决策时间,加快战争的节奏,使从发现判断到打击这条链条越来越短。”
美推动AI深度介入军事领域 加剧国际社会担忧
美国多家媒体披露,伊朗前任最高领袖哈梅内伊在2月28日的空袭中遇害,正是美以依托人工智能技术与网络间谍手段实现的。而就在同一天,伊朗南部一所小学遭袭,导致160多名学生遇难。美国《大西洋》月刊记者泰勒·奥斯汀·哈珀将这一事件定性为人工智能技术应用“目标识别错误”导致的平民伤亡事故。

英国广播公司网站报道截图:美国国防部长赫格塞思呼吁美军更多地使用人工智能技术。
谢卉认为,美国推动大型科技企业深度进入军事系统也会进一步模糊民用技术与军事行动的边界,加剧国际社会对人工智能军事化失控的担忧。
美国在军事行动中加速使用人工智能,暴露出人工智能军事化应用的现实隐忧,一些尚未充分验证、透明度不足、责任边界不清的技术,正在加速用于实战场景,并直接影响目标识别、作战决策和火力打击这些关键环节。
人工智能确实可以提高情报分析、目标识别和作战的规划效率,但它并不意味着判断一定准确,战场环境高度复杂,数据可能过时,图像可能模糊,通信也可能受到干扰,而且模型本身也可能存在偏差。
人工智能一旦被滥用于目标识别和打击流程,就可能造成严重的平民伤亡,后果难以挽回。更需要警惕的是人类在战争决策中的作用可能被弱化,人工智能可以提供辅助分析,但是它不能替代人类做出生死决策。”
专家:AI应服务和平而不是让战争更高效
人工智能技术在战争中被滥用,其伦理风险与安全隐患愈发突出。联合国秘书长古特雷斯曾警告,人类命运不能交由算法决定。那么如何规制约束人工智能的发展?
中国国际问题研究院世界和平与安全研究所助理研究员谢卉认为,要让人工智能真正地服务和平,不应该是让战争更加高效,而应该是减少误判,降低冲突升级的风险,并且更多地用于维和、排雷、人道救援、灾害预警和危机管控等和平目标。
第一,必须坚持人类的最终控制,特别是涉及目标选择、火力打击和生死决策时,不能够把决定权完全交给机器,人工智能可以辅助分析提供建议,但最终是否使用武力,必须由人来判断,由人来负责。
第二,必须确保技术安全可靠,军事环境高度复杂,数据可能不完整,通信可能受到干扰,模型也可能出现误判,因此任何军事人工智能系统在投入使用前都应该经过严格的测试和风险评估,越是接近杀伤链末端的系统,越要审慎使用,越要保留人工干预和紧急停止机制。
第三,必须明确责任边界,人工智能用于军事行动,不能导致责任不清。研发者、部署者、指挥员和使用者之间应该有清楚的责任划分,一旦发生误击误伤或者是系统失控,能够追溯原因,认定责任,并且及时纠正。
第四,要加强国际规则建设。当前人工智能军事化应用发展很快,但是相关的国际规范仍然不完善。国际社会应该以联合国为主渠道,推动主要的军事大国,人工智能技术领先的国家和广大的发展中国家共同参与,就自主武器、人机控制、平民保护、责任追究这些问题形成基本的共识。”
来源:总台环球资讯
记者:杨卓英
签审:王菲
监制:刘轶瑶