您的位置:首頁>軍事>正文

殺手機器人 is coming ! 馬斯克向聯合國發出警告

與由人控制的半自動機器人不同, 自主武器是指能夠在無人干預下獨立搜索、識別並攻擊目標的新式武器。 是否該賦予機器殺人的代理權, 越過機器自主殺人這條紅線?

本文共計2537字, 閱讀時間3分鐘。

記者 | 蔡浩爽

編輯 | 趙力

想像一下這樣一個場景:未來的某一天, 以美軍為首的多國聯合部隊包圍了中東某地, 決心剿滅“伊斯蘭國”。 聯軍派出一批致命自主武器——可以殺人的智慧型機器人, 他們飛到天上, 潛入水裡

第二級的自主是“人在環中系統”(humans-in-the-loop system), 相較于第一級自主, “人在環中系統”已經不需要依賴人類進行操作, 人所要做的只是對它進行監督。 遠端反艦導彈就是這種“半自主”系統, 狩獵敵艦, 並在沒有進一步人為干預的情況下進行識別和攻擊。 但現代戰爭的速度和強度不禁讓我們懷疑, 這種人類的監督能否形成有效控制。

第三級自主武器系統被稱為“人在環外系統”(humans-out-of-the-loop system)。 顧名思義, 在這個階段, 戰爭機器人可以實現完全自主。 “目前完全自主的都是中低端偵察器。 ”董健告訴尋找中國創客記者。 無人戰艦“海上獵手”號就級具代表性。 它不僅能夠在無人操控的情況下連續航行兩三個月, 而且它還具有極強的反潛能力。

但完全自主的偵查器投入戰場後, 完全自主的殺人機器還會遠嗎?在去年四月份, 美國副國防部長羅伯特·勞培就提出了將來武裝“海上獵人”的可能性。

(“海上獵人”無人戰艦)

“就實現難度而言, 依次是自主無人機、自主無人船艇、自主無人車。

”董健介紹, “無人機和無人船艇距離自主戰鬥已經很近了, 無人車還比較難。 ”董健同時表示, 自主無人車技術雖然最難, “但是一旦實現恐怕是對人類最危險的”。

同一種武器, 不同的道德

是否該賦予機器殺人的代理權, 越過機器自主殺人這條紅線?支持者和反對者各有己見。

支援致命自主武器系統的人有兩大類, 其中一類是軍事專家。 “自主武器的效率是無與倫比的。 ”董健說。

首先, 自主武器可以讓戰爭深入到以前無法進入的地區。

其次, 自主武器系統可以通過將人類戰士從危險的任務中移除來減少傷亡, 比如在處理放射性物質或者爆炸物時, 自主機器人的優勢顯露無疑。

此外, 使用機器人還可以大大降低軍事費用。

據美國國防部的資料顯示, 阿富汗每名士兵每年都要花費五角大樓85萬美元。 而使用TALON機器人——一個可以裝備武器的小型漫遊者, 花費則降低到23萬美元。

除了效率與成本, 道德倫理也是一部分人支持自主戰爭機器人的原因。

有軍事專家和機器人研究者認為, 軍事武器系統不僅在道德上可以接受, 而且實際上它們在人類戰爭中更符合倫理。

例如, 機器人學家羅奈爾得·阿爾金(Ronald C. Arkin)認為, 自主機器人對戰場形勢的判斷不會被諸如恐懼或歇斯底里等情緒所掩蓋, 因此系統能夠傳入更多感官資訊。

而美國陸軍上校道格拉斯·普賴爾則從另一個方面指出機器人參戰在道德上的合理性。 普賴爾指出, 神經科學研究表明, 人類負責意識自我控制的神經回路可以在壓力超載的情況下關閉,導致人類士兵在戰場上出現性侵犯或其他不應該犯下的罪行。而機器人則不會有這些問題。

但這些理由顯然不足以讓“馬斯克們”接受。

時至今日,以馬斯克和紮克伯格為代表的兩方對人工智慧的爭論掀起了一輪又一輪。聚焦到軍備領域,這樣的爭論並不是杞人憂天。

自主武器的反對者們在道德上似乎更站得住腳。

因開展反對地雷的運動而獲得諾貝爾和平獎的喬迪•威廉斯是“阻止殺手機器人運動”的發言人,“如果一些人認為把人類的生殺大權交給一台機器是可以的,人性又何以處之?”在他看來,自主武器比核武器更可怕。而從法理層面上講,人類士兵在戰場上的錯誤尚有軍事法庭審判,機器士兵若失手殺人,後果應有誰來承擔?

除了純粹的道德問題外,還有許多其他隱患。

機器參戰或許會如文章開頭所述,降低人員傷亡率。但人工智慧技術不同於核武器,其技術門檻較低。殺手機器人降低了戰爭中的人員成本,爆發衝突的可能性是否會因此提高?如果阻止這類系統落入恐怖分子或者駭客手中?當他們出問題的時候誰來負責?

澳大利亞新南威爾士大學人工智慧教授沃爾什曾經說過:“幾乎每一種技術都可以被用於好的和壞的事情上,人工智慧也一樣。它可以幫助人們解決很多當前急迫的社會問題:不公平和貧困,氣候變化的挑戰和正在進行的全球金融危機。然而,同樣的技術也可以被用在自主武器上以引發工業化大戰。我們需要現在就做出決定,到底要選擇哪種未來。”

你怎麼看待殺人機器人?

快留言告訴小表妹你的想法~

人類負責意識自我控制的神經回路可以在壓力超載的情況下關閉,導致人類士兵在戰場上出現性侵犯或其他不應該犯下的罪行。而機器人則不會有這些問題。

但這些理由顯然不足以讓“馬斯克們”接受。

時至今日,以馬斯克和紮克伯格為代表的兩方對人工智慧的爭論掀起了一輪又一輪。聚焦到軍備領域,這樣的爭論並不是杞人憂天。

自主武器的反對者們在道德上似乎更站得住腳。

因開展反對地雷的運動而獲得諾貝爾和平獎的喬迪•威廉斯是“阻止殺手機器人運動”的發言人,“如果一些人認為把人類的生殺大權交給一台機器是可以的,人性又何以處之?”在他看來,自主武器比核武器更可怕。而從法理層面上講,人類士兵在戰場上的錯誤尚有軍事法庭審判,機器士兵若失手殺人,後果應有誰來承擔?

除了純粹的道德問題外,還有許多其他隱患。

機器參戰或許會如文章開頭所述,降低人員傷亡率。但人工智慧技術不同於核武器,其技術門檻較低。殺手機器人降低了戰爭中的人員成本,爆發衝突的可能性是否會因此提高?如果阻止這類系統落入恐怖分子或者駭客手中?當他們出問題的時候誰來負責?

澳大利亞新南威爾士大學人工智慧教授沃爾什曾經說過:“幾乎每一種技術都可以被用於好的和壞的事情上,人工智慧也一樣。它可以幫助人們解決很多當前急迫的社會問題:不公平和貧困,氣候變化的挑戰和正在進行的全球金融危機。然而,同樣的技術也可以被用在自主武器上以引發工業化大戰。我們需要現在就做出決定,到底要選擇哪種未來。”

你怎麼看待殺人機器人?

快留言告訴小表妹你的想法~

Next Article
喜欢就按个赞吧!!!
点击关闭提示