當前,信息化戰爭形態正由“數字化+網絡化”的初級階段,向“智能化+類人化”的高級階段加速演進,以戰斗機器人為典型代表的智能武器將主宰未來戰場。我國著名人工智能專家李德毅院士,把智能機器人比作是集汽車、新能源、移動通信、衛星定位導航、移動互聯網、云計算、大數據、自動化、人工智能、認知科學,乃至人文藝術等多個學科、多種技術于一身的人造精靈,是人類走向智慧生活的重要伴侶。依此類推,未來的戰斗機器人則可視為將軍們麾下無懼死亡、勇往直前的人造忠誠戰士。
正如聰明的孩子往往更加調皮和不聽話一樣,武器智能化一旦超過一定程度,“聰明過了頭”,就會存在自作主張、失去控制,甚至危及人類自身安全的危險。人類面臨著既要利用武器高度智能化帶來的可以替人打仗的無比好處,又要回避武器高度智能化帶來的巨大失控風險,軍事技術和武器發展由此陷入一個兩難困境。
智能武器的失控風險
據稱“Robot”(機器人)一詞,是由捷克作家卡雷爾·恰佩克在1921年的科幻作品《羅薩姆的機器人萬能公司》中首創,原意是“農奴式被強迫的勞動者”,用來稱呼那些造反的機器仆人。可以說,從一開始,機器人失控對人類的威脅,就成為人類心中揮之不去的心理陰影。
人類對機器人失控的擔心,不僅反映在科幻小說和影視作品中,還反映在很多學者嚴肅認真的學術探討中。《機器人戰爭——機器人技術革命與21世紀的戰爭》的作者彼得·W·辛格就認為,機器人控制世界需要四個基本條件:第一,機器人必須獨立,能夠不依賴人類而自我補充能量、修復和再造;第二,機器人必須在智力上勝過人類,但不具有人類好的品質(如同情心或道德觀念);第三,機器人必須具有生存本能,以及控制其周圍環境的某種興趣和意志;第四,人類必須不能有介入機器人決策的有效控制界面,人類必須沒有能力決定、干涉,甚至影響機器人的決策與行動。從發展趨勢來看,這四個基本條件在技術上都沒有不可逾越的紅線。因此,從理論上講,如果不采取有效措施,智能武器失控是完全有可能的。
與民用機器人相比,軍用機器人失控的危害性更大,有人甚至擔心,軍用機器人會不會成為“人類終結者”。早在1991年,美國學者史蒂文·謝克和艾倫·懷斯合著的《無人戰爭——未來戰場上的機器人》,是一本較早系統介紹和論述軍用機器人及其影響的專著,書中最后嚴肅地提出了這個問題。未來戰爭中,武器高度智能化后,戰場上大多數的戰術行動將交由戰斗機器人來完成,人退出戰術級“觀察-判斷-決策-行動”循環,人授予智能武器開火權,智能武器按照預編程序自行作戰,“人不在回路”了。讓一群冷酷無情、不知疲倦的“殺人機器”沖上戰場,對方的人類士兵自然會心驚膽戰,一旦這些智能武器出現問題失去控制,會不會濫殺無辜,甚至會不會突然掉轉槍口對準自己人呢?!這一擔心,不是杞人憂天,更不是天方夜譚。人是萬物之靈,靈就靈在“有腦子”。人之所以能控制老虎,不是人比老虎強壯,而是人比老虎聰明。機器人的體能、技能超過人類并不可怕,但如果機器人的智能超過人類,人類還能不能控制這種比人類還“聰明”的機器人,那就不好說了。
智能武器失控的可能形式
不同自主程度的智能武器失控的可能形式是不一樣的,造成的危害也不盡相同。大致分析,智能武器失控的情況可能主要有以下幾種。
智能武器因發生故障而失控。在民用機器人方面,因機器人故障而出人命的事早有發生。1985年,蘇聯發生了一起家喻戶曉的智能機器人棋手殺人事件。全蘇國際象棋冠軍古德柯夫同機器人棋手下棋連勝3局,機器人棋手突然向金屬棋盤釋放強大的電流,在眾目睽睽之下將這位國際大師擊倒,這應該是智能機器人發生故障導致的。
隨著機械制造水平和智能化程度的提高,未來智能武器出現機械故障的可能性減小,但出現軟件故障的可能性大增。
武器系統因軟件故障而導致的事故并不鮮見。20O5年,美國空軍幾架戰斗機在一次編隊飛行時,一架戰斗機突然自動向地面重要設施發射了一枚導彈,并造成嚴重事故。經查明,事故原因是飛機的火控系統電腦出了故障。2011年,在美軍幾次軍演和值勤過程中,三軍通用戰場態勢分析系統多次發生軟件故障不能正常工作,出現黑屏、無法顯示友軍信息、無法完成態勢合成,甚至出現運行中斷、死機等故障,導致戰場態勢無法及時更新、融合,作戰打擊方案無法按時生成。
轉載請注明:北緯40° » 智能武器是人類的福祉還是災難?