人工智能技术对撬动军事变革的作用不容小觑,但与此同时,战争中的技术、伦理、道德等一系列风险与挑战也逐步显现。近几年的几场战争中已经有了像无人机这样的自动杀人机器。有的科幻电影里,也出现了这样的场景:那些自动杀人机器完全不考虑人的生命,他们会肆意杀人或四处破坏。于是,许多国家和地区开始成立相关组织,他们认为人工智能不会毁灭人类,倡导人类禁止发展生产和使用致命的自主武器系统,甚至主张彻底禁止任何机器人技术。 图注:人工智能想象图(图片来源于网络) 然而,对于军队来说,这样的伦理困境实质上是不存在的。因为,军队作为国家的暴力机器,是人们实现政治目的的工具。既然如此,“命令和控制”必定会存在于军队的各个方面。如果服务军队的人工智能拥有无法控制的能力,那么军队将失去意义。 因此,走出人工智能的伦理困境,探索与发展人工智能技术是时代之需。 一是制定发展战略。未来,随着超大规模计算、量子计算、云计算、大数据等技术的进步,人工智能的信息处理与控制技术将获得极大发展,在现代战争中所占的技术比重将显著增加。在这样的大背景下,必须及时制定人工智能发展规划与战略,见之于未萌,识之于未发。 二是保证人类的绝对控制权。在完善人工智能战争伦理规范的过程中,应确保人类对智能化武器的控制权,将人机关系纳入战争伦理的讨论维度之中,针对人工智能使用的特殊领域与战场情境建立独立的伦理评价体系,防范人类战争伦理与人工智能参与后的战争伦理相混杂,将技术、伦理与法律等控制手段配合使用、高度融合。 图注:人工智能应用效果图(图片来源于网络) 三是加强国际沟通合作。各国应加强人工智能技术与伦理层面的交流与沟通,建立起长期有效的对话机制,根据现有国际准则推进人工智能相关研究,加强人工智能的技术预测与评估,在充分试验与分析的基础上逐步推进人工智能技术的军事应用。 正如第一次工业革命中蒸汽改变了世界一样,人工智能正以飞快的速度改变着这个世界。未来的军事系统不仅仅是“物质系统”“能量系统”“信息系统”,还是一个人机融合的“智慧系统”;需要指出的是,无论未来战争如何演变,在新模式下人依然是最终决策者,人类战士将根据需要自主进出作战链,采取必要的干预措施。如何确保人类能够随时接管控制权,将是今后一段时期内,人机协同技术发展面临的最大挑战。 注:文章及图片转载自网络,如有侵权请联系删除 |