Half the truth is often a great lie.

智能武器是人類的福祉還是災難?

軍事 rock 12709℃ 0評論

應對智能武器失控的措施

未來高度智能化的機器,可能為人類帶來巨大福祉,也可能為人類帶來滅頂之災,人類即將進入歷史上可能最好也可能最壞的時代。對于高度智能化的武器會不會成為“人類終結者”,人們或許還存在分歧,但對于必須采取各種措施限制和避免智能武器濫用武力這一點,各方意見高度一致。

著名科幻小說家艾薩克·阿西莫夫1940年在其經典小說《我,機器人》中,首先提出了“機器人三原則”,即:機器人不應傷害人類;機器人必須聽從人類的命令,除非該命令與第一定律相悖;機器人必須保護自己,除非這種保護與以上兩條相矛盾。“機器人三原則”雖然有預見性地制定了機器人與人類相處的基本準則,但主要適應于民用的服務型機器人,如果應用到戰斗機器人身上,還需要做很大的修改才能適應。例如,戰斗機器人應該在達成作戰目的的前提下,以最小傷害程度殺傷敵人,能不奪人性命解決問題就不要使用致命性武器;戰斗機器人必須堅決聽從己方指令去消滅敵人,不能聽從敵方指令,或受外部環境干擾而改變己方指令;戰斗機器人必須保護自己,但接到己方要求其自毀指令時除外。為努力做到上述幾點,始終把智能武器關在人類“控制圈”內,研究人員還真想出了不少點子。

首要和保底的手段,就是在智能武器中嵌入獨立于其自身控制系統的自毀模塊。在智能武器走出生產線即將正式啟動之前,就要設置好這種“后門”式的自毀模塊。一旦智能武器失去控制,人類可以不受外部環境或智能武器自身干擾,實時啟動自毀程序,實現智能武器不可逆轉的徹底死機或主機殉爆。這一辦法,對于“低智商”的智能武器是可行的。將來一旦出現更加“聰明”的智能武器,能夠“意識”到這一自毀模塊的存在,它可能就會想方設法地去除或干擾自毀模塊,因此必須確保自毀模塊的隱蔽性和可靠性。

在智能武器控制軟件中加入倫理控制程序。智能武器的指揮控制中樞是電腦,而電腦的“智商”全靠預編軟件來實現,在智能武器控制軟件中加入倫理控制程序來限制智能武器的行為,從理論上講,可以避免其“胡來”。美國佐治亞理工學院移動機器人實驗室的羅納德·阿金,設計了名為“潛在行動的多維數學決策空間”的控制程序,作為戰斗機器人的“道德適配器”。這套融合了人類悔恨、同情、內疚等情緒的控制程序,將機器人攜帶的武器系統根據殺傷力分組,每組武器都有特定的愧疚臨界值。“道德適配器”可根據傳感器接收到的數據和情報,把機器人所有可能的行動分為“道德的”和“不道德的”兩種,并根據需要選擇適當的武器系統。機器人在使用大威力武器前,必須經過“道德適配器”的審核,只有當使用武器的愧疚臨界值低于標準值才可使用。這一設計思路很好,但問題的難點不是以何種愧疚臨界值來控制何種殺傷力的武器,而是如何精確判斷當前事態的愧疚臨界值,既不能因臨界值設置過小造成毀傷不夠而達不成作戰目的,又不能因臨界值設置過大而造成不必要的過度殺傷。在瞬息萬變的交戰態勢中,要做到這一點,人類士兵都很難,戰斗機器人恐怕更難。

2014年9月2日,在英國召開的“邁向自主機器人系統”會議上,英國布里斯托爾機器人實驗室的機器人專家溫菲爾德,演示了一個關于機器人倫理道德的試驗,他為機器人設定了一個阻止其他擬人機器人掉進洞里的程序。當一個擬人機器人向洞口移動時,救人機器人可沖上前去將其推開,但當兩個擬人機器人同時向洞口移動時,救人機器人就因為“選擇”先救誰而陷入困境,有時他救起了一個,另一個掉進洞里;有時他兩個都想救。在33次測試中有14次因為不知道救哪一個而浪費了時間,以至于兩個“人”都掉進了洞里。溫菲爾德認為,雖然根據設定的行為程序,它可以對他人施救,但它根本不理解這種行為背后的原因,因此他的機器人是“道德僵尸”。溫菲爾德的試驗證明,要給機器人賦予“道德感”是比較困難的。

精確選擇智能武器的目標打擊部位。2006年,美國國防部長辦公室下屬機構——國防安全工作小組,研究討論了如何通過允許“武裝自主系統”“開火摧毀敵方武器系統而非疑似作戰人員”的做法,以減輕人們對潛在“機器人殺手”的種種擔憂。換言之,機器人應該朝坦克或吉普車開火,而不是朝里面的人開火。約翰·S·坎寧是美國海軍水面作戰中心的首席工程師,也是該小組成員之一。他說:“我們的武裝無人系統的設計,要能自動識別、瞄準我們的敵人所用的武器,并能使武器而不是使用這些武器的敵人失效或者遭到摧毀。這樣,我們就有可能解除對我們構成威脅的部隊的武裝,卻不必殺死相關人員。”隨著人工智能的發展,電腦的模式識別能力將有極大提高,智能武器完全可以把單獨的武器和作戰人員區分開來。

“打武器不打人”這一做法,對于作戰目標是無人武器的情況確實可行,但作戰目標是載人武器平臺時,實際操作起來會大大增加作戰難度。例如,要想把坦克打癱,又要保證里面的乘員毫發無損,打履帶是最好的辦法,但打履帶對打擊時機、打擊角度、打擊手段等方面的要求都比較苛刻,在“發現即摧毀”的未來戰爭中,一味強調打履帶可能會導致延誤戰機。根據以往的實際作戰經驗,對于“人裝合一”的敵方目標,即使智能武器能夠精心選擇目標打擊部位,附帶損傷也是在所難免的。

只給智能武器配備非致命性武器。把殺人武器交到機器人手中始終讓人不放心,因此有人認為,如果要給機器人配備武器,那也應該配備非致命性武器。這些武器不是用來摧毀或者殺戮,而是用來讓目標失去戰斗力但并不對其造成永久性傷害。正如美國陸軍戰爭學院教授史蒂文·梅茨所講的那樣,“機器人技術和非殺傷性手段,這兩者的結合極其重要。這樣,你可以命令系統只是制服目標,剩下的事情交給警察,而不是‘將目標全部殺死,后事交由上帝處理’。”這一辦法應該說是完全可行的,未來戰爭中失能性武器的可選擇范圍很大,對人員可使用“控腦武器”“嘔吐射線”武器、次生波武器、被稱為“痛苦射線”的定向能“主動拒止系統”、網罩武器,甚至發射橡皮子彈的警用武器等非致命性武器,對裝備可使用電磁脈沖武器、網絡攻擊武器、高功率微波武器、致發動機熄火的阻燃泡沫彈等非爆炸性武器。從某種意義上說,新機理、新概念武器為智能武器的失控問題提供了很好的解決方案。

文/袁藝 原載于《軍事文摘》雜志2015年第11期

轉載請注明:北緯40° » 智能武器是人類的福祉還是災難?

喜歡 (0)or分享 (0)
發表我的評論
取消評論
表情