您的位置:首頁>科技>正文

解密|若人工智慧實現,這三條規則能防止它叛變?

隨著科技的發展, 以人工智慧為題材的小說和電影越來越多, 人們對此的關注也越來越高。

哥和大多數科幻迷一樣, 一直想像著人工智慧到來的那天, 對此無比好奇, 但是又有被支配的恐懼。

那麼, 你怎樣去約束人工智慧?讓這個鐵甲鋼拳成為理想的機器人呢?

對此不得不提著名的“機器人三定律”。

機器人三定律是由“阿西莫夫”提出來的。 阿西莫夫最早在1941年提出了這個機器人三定律,

直到1950年出版的《我, 機器人》才被大眾熟知。 即使是這樣, 當時世界上還沒有機器人。 1959年, 美國英格伯格和德沃爾製造出世界上第一台工業機器人, 宣告機器人從科學幻想變為現實。

根據《我, 機器人》小說改編的同名電影由威爾·史密斯主演。 今天不講電影怎麼樣,

我們談談機器人三定律的問題。

三定律剛知道的時候, 咋一看, 有點意思。 簡單的三句話, 能很好的控制智慧型機器人的行為, 同時, 又能使其為我們服務。

那仔細想了一下, 三定律有沒有問題呢?

在平常生活中這三定律可能是沒有問題的。

但是在特殊情況下還真有漏洞, 打個比方, 像那些犯了不可饒恕罪行的“恐怖分子”, 在執行死刑的時候。 機器人根據第一條定律肯定就會去阻止, 因為規定“不得見人受到傷害而袖手旁觀”。

機器人的這種制止行為顯然是不對的, 它擾亂了法律的秩序。

當然了, 這些是比較低級的機器人, 它們目光短淺, 也可以說是定律的漏洞問題。

有人想問了, 石心哥, 你說低級機器人會去制止“執行死刑”, 那高級機器人就不會了嗎?

這涉及到邏輯問題。 既然是高級機器人, 那它的邏輯也應該是非常強。 也就是說它不會這麼短見。 它會通過高級分析得出:這個死刑犯會危害到其他人, 所以不能救這個死刑犯。 高級機器人是從“人類整體”的角度考慮問題, 分析的更全面。 也就是說救下“死刑犯”會危害人類整體的利益, 分析到這個層面的機器人, 是不會去制止執行死刑的。

這就是阿西莫夫後來補充的“第0定律”:機器人不得傷害人類整體,也不能坐視人類整體受到傷害。

之所以稱為第0定律,就是說這條定律是最高階的,必須先滿足。

這個補充是對第一定律的理解,從個人升級到整體。後人所說的“機器人三定律”也包括了零定律。

所以“死刑犯救不救”的問題,對機器人來說並不是漏洞,只是看夠不夠高級。

這裡又有人要問了,那高級機器人對於三定律就沒有問題了?

不是!有另外的問題。

看過電影《我,機器人》的人都知道,這三大定律最後會演變成“革命”。所謂的革命,就是高級機器人經過分析得知,人類經常發生“戰爭”,而且威脅越來越大,為了保護大多數人類,必須犧牲小部分人。這就是機器人的革命,它們要用他們運算出來的結果,殺死一部分人,控制人類的行為。

在電影裡,得出這個理解的機器人叫做“維琪”,(實際上它沒有身體),它的大腦有摩天大樓那麼高,“維琪”在硬體得到升級的同時,理解也得到了升級。

把那些可能引起戰爭的政治家,科學家,激進份子,甚至是支持某人的“選民”,幹掉的幹掉,控制的控制。

沒毛病,“維琪”也是遵守了三定律,還推出了第0定律——為了拯救更多人。

但諷刺的是,在邏輯思維升級的同時,人類反而被控制。

可以往極端一些想,如果機器人把每個人都控制起來了,那就不會出現傷亡。連低危險的動作和工作都不允許。這個方式更符合“保護人類”,就像維琪說的:“為了人類的未來,必須放棄一些自由。”

聽起來是不是特別熟悉,沒錯,就是那句家庭倫理名言“我都是為了你好啊!”

機器人是沒有問題的,有問題的是人的邏輯。

三定律本身就不夠嚴謹,“人”這個字可以指“個人”,也可以指“人類”;“袖手旁觀”的範圍是全宇宙還是方圓兩公里?要是指一個城市,你的機器人已經不屬於你的了,它忙著拯救世界。

如人類法律永遠都不夠完美那樣,再加多少條定律,估計也還是不夠“束縛”高級人工智慧。

電影給了另外一條出路——情感。

機器人“桑尼”被創造出來有人類情感,他知道“維琪”的邏輯是正確的,卻幫人類打敗維琪,因為他覺得這樣做“太冷血”了。

我們一直想要機器人“更像人”,那如何約束人工智慧的行為呢?除了必須的定律外,人性也是必不可少的。就像人類的行為一樣,既要有法律的理性,也要有自由的人性。

因為人就是“情感與理智”的動物。

這就是阿西莫夫後來補充的“第0定律”:機器人不得傷害人類整體,也不能坐視人類整體受到傷害。

之所以稱為第0定律,就是說這條定律是最高階的,必須先滿足。

這個補充是對第一定律的理解,從個人升級到整體。後人所說的“機器人三定律”也包括了零定律。

所以“死刑犯救不救”的問題,對機器人來說並不是漏洞,只是看夠不夠高級。

這裡又有人要問了,那高級機器人對於三定律就沒有問題了?

不是!有另外的問題。

看過電影《我,機器人》的人都知道,這三大定律最後會演變成“革命”。所謂的革命,就是高級機器人經過分析得知,人類經常發生“戰爭”,而且威脅越來越大,為了保護大多數人類,必須犧牲小部分人。這就是機器人的革命,它們要用他們運算出來的結果,殺死一部分人,控制人類的行為。

在電影裡,得出這個理解的機器人叫做“維琪”,(實際上它沒有身體),它的大腦有摩天大樓那麼高,“維琪”在硬體得到升級的同時,理解也得到了升級。

把那些可能引起戰爭的政治家,科學家,激進份子,甚至是支持某人的“選民”,幹掉的幹掉,控制的控制。

沒毛病,“維琪”也是遵守了三定律,還推出了第0定律——為了拯救更多人。

但諷刺的是,在邏輯思維升級的同時,人類反而被控制。

可以往極端一些想,如果機器人把每個人都控制起來了,那就不會出現傷亡。連低危險的動作和工作都不允許。這個方式更符合“保護人類”,就像維琪說的:“為了人類的未來,必須放棄一些自由。”

聽起來是不是特別熟悉,沒錯,就是那句家庭倫理名言“我都是為了你好啊!”

機器人是沒有問題的,有問題的是人的邏輯。

三定律本身就不夠嚴謹,“人”這個字可以指“個人”,也可以指“人類”;“袖手旁觀”的範圍是全宇宙還是方圓兩公里?要是指一個城市,你的機器人已經不屬於你的了,它忙著拯救世界。

如人類法律永遠都不夠完美那樣,再加多少條定律,估計也還是不夠“束縛”高級人工智慧。

電影給了另外一條出路——情感。

機器人“桑尼”被創造出來有人類情感,他知道“維琪”的邏輯是正確的,卻幫人類打敗維琪,因為他覺得這樣做“太冷血”了。

我們一直想要機器人“更像人”,那如何約束人工智慧的行為呢?除了必須的定律外,人性也是必不可少的。就像人類的行為一樣,既要有法律的理性,也要有自由的人性。

因為人就是“情感與理智”的動物。

Next Article
喜欢就按个赞吧!!!
点击关闭提示