人與武器的關係,是戰爭領域永恆的話題,影響着戰爭全局。特別是隨着人工智能技術的不斷成熟以及未來無人自主作戰平台的大量運用,無人作戰將成為一種顛覆性的新型作戰樣式。正如美國《21世紀戰略技術》中所説:“20世紀的核心武器是坦克,21世紀的核心武器是無人系統。”
如果無人作戰系統被賦予“生殺大權”,完全由機器替代人作戰,實施“機器人代理戰爭”,就可能如英國物理學家霍金所言,自主機器人會像“人類無意中踩死一隻螞蟻”那樣傷及人類。這也是到目前為止,人類始終不下放“開火權”的主要原因。
戰場需求 技術驅動——
無人作戰已經“蜂擁而至”
有戰爭就有流血,有暴力就不可避免的傷殘和死亡。既要打仗,又怕傷亡,最好的辦法是尋找替身。無人作戰系統正是由於“平台無人”,不存在作戰傷亡的問題,因而適用於執行各種高危險和人員難以承受的復雜環境任務,甚至完全取代士兵衝鋒陷陣,完成有人作戰力量無法完成或不便於完成的任務。比如,在高原、高寒、深海等環境下抵近目標執行偵察、干擾、攻擊等任務。
正是基於“零傷亡”的優勢,無人作戰系統幾乎參與了自越戰以來的歷次主要戰爭,且數量規模愈來愈大。比如,在阿富汗戰爭中,無人機和地面機器人的投入數量都創下了歷史之最,並且改寫了無人作戰史上多項紀錄。其中,地面機器人與士兵的數量比例達到1:50,美軍操縱的機器人甚至超過了裝甲戰車,有人曾誇張地將阿富汗戰爭稱為人類戰爭史上第一次“機器人戰爭”。
在戰爭需求的刺激下,無人作戰技術不斷完善和提升,無人作戰系統行動空間已拓展至陸上、海上、水下、空中、臨近空間,任務領域已涵蓋偵察監視、電子干擾、通信中繼、引導評估、排雷排爆、物資運輸、火力打擊等有人作戰的任務領域,而且其多能化、精確化和智能化不斷提升,已經成為主要軍事強國武器裝備發展的重點方向。
美軍每兩年發佈一次《無人系統路線圖》,計劃未來10年內擁有的地面作戰機器人超過陸軍士兵數量,到2020年約有1000艘無人潛航器參與水下作戰,到2025年90%的作戰飛機將是無人機。依據《2025年先進軍用機器人技術裝備研發專項綜合計劃》,俄軍於2017年開始大量列裝機器人,到2025年無人系統在俄軍裝備結構中的比例將達到30%,其中無人機將佔空軍飛機總數的40%。
可以説,無人作戰作為全新的作戰方式,已經不再是戰爭舞台上悄然出演的“新童話”,而是信息化戰爭中頻繁上演的“常態劇”。
有限自主 適時調控——
無人作戰終為“人機協同”
無論無人作戰系統如何高度智能化,人作為主導因素沒有變,改變的只是人與武器裝備的協作方式。未來的無人作戰與有人作戰之間應是各取其長,也就是“誰能幹什麼就讓誰幹、誰幹得更好就讓誰幹”,聯合行動、聯動作戰,最終達到“互補增效、整體釋能”,共同完成作戰任務。
在戰略戰術設計上,以人為主。“用兵之具,盡於人事”。未來無人作戰中,根據作戰目的、作戰對手、戰場環境等,在作戰力量編成部署,作戰時機、打擊目標、作戰方法選擇,作戰規模、作戰強度、作戰節奏掌控等都要由人主導。而無人作戰力量可“擁有一定程度的自主權——可調節自主權、受監督的自主權或者任務允許的完全自主權”,按照為其設定作戰程序、交戰規則、自主權限,獨立完成具體作戰任務,充分發揮自身優勢,為有人作戰行動創造條件。
未來無人作戰,人機協同是最主要的運用方式。在有人與無人作戰力量的協同模式上,一是以無人作戰力量為先鋒,實施偵察監視、障礙排除、火力摧毀等,破擊作戰體系、形成有利態勢,為後續有人作戰開闢安全走廊;二是將有人與無人作戰力量混合編組、協同行動,以少量有人力量指揮大量無人作戰力量行動,共同遂行多樣化作戰任務,或以無人作戰力量伴隨行動,為有人作戰提供立體警戒、火力支援和物資補給等。
目前,美軍正在進行“有人-無人”協同作戰試驗,以C-130為“空中母艦”釋放並指揮無人機羣作戰,或以F-35戰鬥機為中心平台控制武裝無人“僚機”作戰,或以M113裝甲車為機動控制站指揮地面機器人戰鬥。
失控風險 倫理約束——
必須保留最後“拔插銷”的權力
當前,各類無人作戰平台主要在後方人員的操控下,以“半自主式”模式單獨或少量協同執行任務。但隨着無人作戰力量規模化運用,這種模式將難以應對複雜多變的戰場環境,容易錯失戰機、制約作戰效能發揮。
研究表明,一個操作手同時控制兩台機器人時,會使其性能平均降低50%。這就需要賦予無人作戰系統較高的自主性,能夠基於人工智能進行自動搜索、跟蹤目標,自主識別環境選擇機動路線,獨立完成偵察、定位、攻擊等任務。高度智能化有時可能是高度“傻瓜化”,存在因系統失效而失控的風險,特別是複雜戰場環境下,更容易出現識別錯誤、通信降級甚至被敵電磁、網絡攻擊後“倒戈反擊”等。
從2005年伊拉克戰場上美軍“劍”戰鬥機器人無故將槍口指向己方指揮官,到2011年伊朗捕獲美軍RQ-170“哨兵”無人偵察機,無人作戰系統失控風險一直伴隨着無人作戰的運用。
人與武器裝備的關係,不僅是作戰問題,更涉及戰爭倫理問題。如何保證攻擊目標的合法性?在出現對平民目標攻擊時,誰願意承擔作戰風險併合理區分責任?這都是無人作戰系統運用中涉及的戰爭倫理問題。同時,人們也擔心,一旦完全自主化無人作戰系統的智力超過人類,將可能上演真實版《終結者》的場景,人類被完全排斥在“作戰鏈”之外而束手無策,這可能是災難性的。
正因如此,無人作戰仍需“人在迴路”,留在作戰“控制圈”內,並保留最後“拔插銷”的權力。目前,美軍在研製自主化武器系統時,為防止因其失效導致意外交戰,要求“必須設計為在發揮效能時,允許指揮人員或者操作人員行使適當層級的判斷”,並能夠在必要時激活或者解除系統功能。