您的位置:首頁>科技>正文

「黑鏡」回歸!劇中的殺戮機械狗或在兩年內來到你身邊

機器之能, 是機器之心旗下關注全球人工智慧產業應用場景及商業化的內容帳號。 歡迎關注與互動:almosthuman2017

你覺得波士頓動力的 SpotMini 很萌?它可能是為殺戮而造的。

編譯 | 王宇欣、王藝

作者 | Dom Galeon

來源 | Futurism

無頭的守衛犬

畫面中, 三個人正在執行任務, 準備闖入一個看似被遺棄的倉庫。 他們要幫助一個奄奄一息的人, 讓他最後的日子好過一點。 他們看上去非常緊張, 臉上掛著絕望的神情。

幾分鐘之後, 我們終於明白他們在害怕什麼。 隨著情節的推進, 一隻四條腿, 由太陽能供能的機器犬進入畫面。 它看起來和波士頓動力最新版本的 SpotMini 差不多。

在最新一季的英劇「黑鏡」第五集 Metalhead 中, 這只狗被稱為「The Dog」。 和 SpotMini 一樣, The Dog 沒有頭。 相反, 它的頭部位置裝有一個玻璃箱, 裡面是許多的感測器, 包括一個複雜的電腦視覺系統(我們可以推測出這些是因為畫面會不時地切換到機器犬的視野)。

然而和 SpotMini 不同的是,

The Dog 帶有一大堆先進的武器。 例如, 一種向潛在的小偷或是行兇者發射彈片狀追蹤設備的手榴彈;它的前腿上裝有威力大到足以爆頭的槍械;它還可以連接到電腦系統, 通過解鎖一些安全門或是駕駛智慧車輛來執行更多的高科技任務。

The Dog 不是那種常規的守衛狗。 它, 致命, 無情, 能夠追捕和摧毀任何與它相遇的人。 就像開頭的人物那樣, 不管闖入的準備做的多麼充足, 遠離它都是最聰明的選擇。

就像「黑鏡」中的許多技術一樣, 這樣的機器犬其實離我們並不遙遠。 在像美國和俄羅斯這樣熱衷於研發人工智慧武器的國家, 像波士頓動力這樣的公司正在積極開發符合這些需求的機器犬。

所以, 我們與 The Dog 這種人工智慧加持的守衛犬到底還有多遠?

內有惡狗請小心

據專家介紹, 「黑鏡」中機器犬的一些特徵與現實已經非常接近了。 11 月, 一個關於未來「屠殺機器人」的視頻快速傳播, 視頻介紹了一種被設計用來搜索並消滅特定人類目標的自動無人機。 從網路評論中, 我們看到了人們對這類機器人的不適。

幸運的是, 這項技術和視頻本身都是虛構的, 但是視頻製作小組的一員, 加州大學伯克利分校電腦科學教授 Stuart Russell 告訴外媒 Futurism 說, 「我們已經具備了所有的基礎技術。 這項任務不會比自動駕駛的難度更大;主要問題在於投資和努力, 如果成立專案組並有無限的資源投入(就像曼哈頓計畫), 屠殺機器人這樣的東西在兩年內就可以投入使用。

集群智慧公司 Unanimous AI 的創始人兼 CEO Louis Rosenberg 對 Russel 的斷言, 即完全自主化的武裝無人機將很快成為我們生活常規的一部分, 表示同意。 「已經非常接近了, 」Rosenberg 對 Futurism 說到「20 年前, 我估計全自動機器無人機將會在 2048 年以前被使用。 今天, 我不得不說, 這一天會更早到來。 」他預計這樣的自主武器可能會在 2020 年到 2025 年之間大規模生產。

儘管「搜索和消滅」這樣的人工智慧功能離我們已經很近了, 但是 Russel 認為, 「黑鏡」中的 The Dog 離實現仍有一段距離。

製造這種機器人殺手的問題可以追溯到狗在各種不同環境中無障礙活動的能力。 「現實世界中, 狗能夠長時間地在不同的環境中進行切換, 並且會遇到很多意想不到的事件。 然而現階段的軟體很容易會混亂, 然後陷入困境,

因為它對外部世界發生的事情沒有概念。 」Russel 說。

軟體問題不是機器人殺手所面臨的唯一阻礙。 「有胳膊有腿的機器人在操控不熟悉的物體時仍然有一些困難, 」Russell 說道。 但在「黑鏡」中, 經過訓練, The Dog 甚至能夠精准地控制菜刀。

和今天的機器人不同, The Dog 沒有那麼容易被騙。 「事實上, 機器人仍然很容易被騙。 它們目前無法對之前未瞭解過的事情採取對策。 比如說, 雷射雷達探測器太薄, 無法正確探測, 或者某些干擾設備使用虛假信號導致導航混亂等。 」Russell 說。

請看好你的狗

在最後, 我們似乎達成了共識, 在未來我們有能力把這樣的機器狗帶到生活中來。 但是我們真的應該這樣做嗎?

Rosenberg 和 Russell 都同意, 將人工智慧武器化這一做法會給世界帶來更多的傷害, 特別是將其作為武裝或是「殺手機器人」。「我真誠地希望不會發生這種情況。我相信從根本上自動化武器就是危險的。他們將複雜的道德層面的決策交給沒有人為判斷力的演算法來進行。」Rosenberg 解釋說。大多數智慧手機上的自動校正演算法都經常會犯錯誤,他繼續說道,同樣,自動化武器也可能犯錯。Rosenberg 表示,「我相信要讓這樣的技術完全可靠,我們還有很長的一段路要走。」

的確,如今大多數人工智慧演算法都非常複雜。但這並不意味著他們做好了充足的準備以作出判定生死的決策。

其中最大的障礙是,大多數演算法的內部工作機理對我們來說都是無法理解的。Aiva Technologies(這家公司構建了一種創作音樂的人工智慧)的 CEO,Pierre Barreau 通過郵件對 Futurism 表示,「目前,深度學習有一個很大的問題就是技術的黑箱問題,這讓我們無法真正理解為什麼演算法會作出這樣的一些決定。因此,在將這些技術應用到武裝領域作一些敏感決定時就涉及到了很多問題,比如人工智慧會針對某一情況作出何種反應?它的意圖是否與人類意圖相符?這些我們都無從得知。」

用人工智慧作出重大的決定似乎太過隨意,比如國際特赦組織對自動化武器的批判。「我們認為完全自主的武器系統無法遵守國際人權法和國際警務標準。」Amnesty 的軍控顧問 Rasha Abdul-Rahim 通過郵件對 Futurism 說道。

人類在做出這些決定時也不完美,但至少我們可以展示出自己思考的過程,他人能夠理解某個人是如何做出這一決定的。這和機械戰警決定是否對某人使用泰瑟槍時完全不同。「如果用於維持治安,那麼我們必須同意機器可以自行決定是否對人類施加武力,」Russell 說道,「我懷疑社會對此將會有很多反對意見。」

Unanimous AI 的集群智慧預測到,在未來,全球範圍內的管理組織可能會禁止或阻止使用自主機器人武器。我們可以對集群智慧的預測保佑一定的期待,至少,Unanimous AI 在過去已經成功預測過很多事情。

然而,另外一些人聲稱,只要受到嚴格監管,按照預期使用技術,一些國家可能會允許使用自主化武器。Russell 指出,包括 Henry Kissinger 在內的一些領導人都提出要禁止直接攻擊人類的自主化武器的設計與製造,但是仍然允許這些武器運用於空中和潛艇作戰當中。

Abdul-Rahim 表示,「因此,我們必須對紅十字國際委員會所稱的『關鍵職能』,即目標的明確和武力部署等,進行有效和有意義的人為管控。」

一些專家提出了兩者中的細微差別。自主化武器在一種情況中是可以存在的,但不能用於其他情況,雖然這樣的方法可能難以實施,一些人則堅持這樣的規定還不夠。Abdul-Rahim 表示,「國際特赦組織始終堅持呼籲各方要在發展、生產、運輸等方面搶先對全自助化武器系統進行禁止。」但是這樣的呼籲可能已經太遲了,一些國家已經開始了人工智慧武器的研發。

Russell 和很多其他專家一直以來都有參與到停止人工智慧武器的發展和使用的呼籲行動中,一個由 116 個國際領導者組成的小組近期就這個問題給聯合國發表了一封公開信,據說聯合國已經在考慮相關禁止事宜。Rosenberg 總結說:「我們希望法律的限制能夠阻止歷史進程的推動,讓它不會發生。」

人工智慧可以使我們世界上大部分地區發生革命性的變化,這毋庸置疑,甚至包括戰爭和其他國際衝突的解決方式。屆時將由國際立法者和領導者決定是否發展自動化武器或者無頭機器守衛犬等技術。然而比起益處,戰爭終將造成更多傷害。

特別是將其作為武裝或是「殺手機器人」。「我真誠地希望不會發生這種情況。我相信從根本上自動化武器就是危險的。他們將複雜的道德層面的決策交給沒有人為判斷力的演算法來進行。」Rosenberg 解釋說。大多數智慧手機上的自動校正演算法都經常會犯錯誤,他繼續說道,同樣,自動化武器也可能犯錯。Rosenberg 表示,「我相信要讓這樣的技術完全可靠,我們還有很長的一段路要走。」

的確,如今大多數人工智慧演算法都非常複雜。但這並不意味著他們做好了充足的準備以作出判定生死的決策。

其中最大的障礙是,大多數演算法的內部工作機理對我們來說都是無法理解的。Aiva Technologies(這家公司構建了一種創作音樂的人工智慧)的 CEO,Pierre Barreau 通過郵件對 Futurism 表示,「目前,深度學習有一個很大的問題就是技術的黑箱問題,這讓我們無法真正理解為什麼演算法會作出這樣的一些決定。因此,在將這些技術應用到武裝領域作一些敏感決定時就涉及到了很多問題,比如人工智慧會針對某一情況作出何種反應?它的意圖是否與人類意圖相符?這些我們都無從得知。」

用人工智慧作出重大的決定似乎太過隨意,比如國際特赦組織對自動化武器的批判。「我們認為完全自主的武器系統無法遵守國際人權法和國際警務標準。」Amnesty 的軍控顧問 Rasha Abdul-Rahim 通過郵件對 Futurism 說道。

人類在做出這些決定時也不完美,但至少我們可以展示出自己思考的過程,他人能夠理解某個人是如何做出這一決定的。這和機械戰警決定是否對某人使用泰瑟槍時完全不同。「如果用於維持治安,那麼我們必須同意機器可以自行決定是否對人類施加武力,」Russell 說道,「我懷疑社會對此將會有很多反對意見。」

Unanimous AI 的集群智慧預測到,在未來,全球範圍內的管理組織可能會禁止或阻止使用自主機器人武器。我們可以對集群智慧的預測保佑一定的期待,至少,Unanimous AI 在過去已經成功預測過很多事情。

然而,另外一些人聲稱,只要受到嚴格監管,按照預期使用技術,一些國家可能會允許使用自主化武器。Russell 指出,包括 Henry Kissinger 在內的一些領導人都提出要禁止直接攻擊人類的自主化武器的設計與製造,但是仍然允許這些武器運用於空中和潛艇作戰當中。

Abdul-Rahim 表示,「因此,我們必須對紅十字國際委員會所稱的『關鍵職能』,即目標的明確和武力部署等,進行有效和有意義的人為管控。」

一些專家提出了兩者中的細微差別。自主化武器在一種情況中是可以存在的,但不能用於其他情況,雖然這樣的方法可能難以實施,一些人則堅持這樣的規定還不夠。Abdul-Rahim 表示,「國際特赦組織始終堅持呼籲各方要在發展、生產、運輸等方面搶先對全自助化武器系統進行禁止。」但是這樣的呼籲可能已經太遲了,一些國家已經開始了人工智慧武器的研發。

Russell 和很多其他專家一直以來都有參與到停止人工智慧武器的發展和使用的呼籲行動中,一個由 116 個國際領導者組成的小組近期就這個問題給聯合國發表了一封公開信,據說聯合國已經在考慮相關禁止事宜。Rosenberg 總結說:「我們希望法律的限制能夠阻止歷史進程的推動,讓它不會發生。」

人工智慧可以使我們世界上大部分地區發生革命性的變化,這毋庸置疑,甚至包括戰爭和其他國際衝突的解決方式。屆時將由國際立法者和領導者決定是否發展自動化武器或者無頭機器守衛犬等技術。然而比起益處,戰爭終將造成更多傷害。

Next Article
喜欢就按个赞吧!!!
点击关闭提示