華文網

霍金亮相GMIC大會 警告人類謹慎使用人工智慧

人工智慧可能是人類最偉大的發明 也可能終結人類文明

金羊網訊 記者李鋼報導:昨天在北京舉行的GMIC大會上,著名科學家霍金通過視頻的方式進行了現場演講。在演講中,

霍金提出要謹慎使用人工智慧,否則,人類有可能被取代。

人工智慧或可以有自我意志

霍金說,他所見證的最深刻的社會變化,同時也是對人類影響與日俱增的變化,就是人工智慧的崛起。他認為,強大的人工智慧的崛起,要麼是人類歷史上最好的事,要麼是最糟的。人工智慧的發展是好是壞仍不確定,但人類應該竭盡所能,確保其未來發展對人類和環境有利。

霍金認為,

文明所提產生的一切都是人類智慧的產物,他相信生物大腦可以達到的和電腦可以達到的,沒有本質區別。因此,它遵循了“電腦在理論上可以模仿人類智慧,然後超越”這一原則。但現在無法知道人類將會無限地得到人工智慧的幫助,還是被藐視並被邊緣化,或者很可能被它毀滅。聰明的機器將能夠代替人類正在從事的工作,並迅速地消滅數以百萬計的工作崗位。

在人工智慧從原始形態不斷發展,

並被證明非常有用的同時,霍金也在擔憂創造一個可以等同或超越人類的事物所導致的結果:人工智慧一旦脫離束縛,會以不斷加速的狀態重新設計自身。人類由於受到漫長的生物進化的限制,無法與之競爭,將被取代。未來,人工智慧可以發展出自我意志,一個與人類衝突的意志。

2015年1月份,霍金和科技企業家埃隆·馬斯克,以及許多其他的人工智慧專家簽署了一份關於人工智慧的公開信,

目的是提倡就人工智慧對社會所造成的影響做認真的調研。

人工智慧失控的風險

現在,關於人工智慧的研究正在迅速發展。這一研究可以從短期和長期來討論。一些短期的擔憂在無人駕駛方面,從民用無人機到自主駕駛汽車。比如說,在緊急情況下,一輛無人駕駛汽車不得不在小風險的大事故和大概率的小事故之間進行選擇。

另一個擔憂在致命性智慧自主武器。他們是否該被禁止?如果是,那麼“自主”該如何精確定義。如果不是,任何使用不當和故障的過失應該如何問責。還有另外一些擔憂,由人工智慧逐漸可以解讀大量監控資料引起的隱私和擔憂,以及如何管理因人工智慧取代工作崗位帶來的經濟影響。

長期擔憂主要是人工智慧系統失控的潛在風險,隨著不遵循人類意願行事的超級智慧的崛起,

那個強大的系統威脅到人類。當前控制人工智慧技術的工具,例如強化學習,簡單實用的功能,還不足以解決這個問題。因此,人類需要進一步研究來找到和確認一個可靠的解決辦法來掌控這一問題。

霍金認為,比如說之前提到的自主駕駛汽車,以及人工智慧贏得圍棋比賽,都是未來趨勢的跡象。巨大的投入傾注到這項科技。科學家目前所取得的成就,和未來幾十年後可能取得的成就相比,必然相形見絀。人工智慧的成功有可能是人類文明史上最大的事件。

人工智慧有可能是人類文明的終結

霍金說,人工智慧也有可能是人類文明史的終結,除非人類學會如何避免危險。人工智慧的全方位發展可能招致人類的滅亡,比如最大化使用智慧性自主武器。

今年早些時候,霍金和一些來自世界各國的科學家共同在聯合國會議上支持其對於核武器的禁令。目前,九個核大國可以控制大約一萬四千個核武器,它們中的任何一個都可以將城市夷為平地,放射性廢物會大面積污染農田,最可怕的危害是誘發核冬天,火和煙霧會導致全球的小冰河期。這一結果使全球糧食體系崩塌,末日般動盪,很可能導致大部分人死亡。

“我們作為科學家,對核武器承擔著特殊的責任,因為正是科學家發明了它們,並發現它們的影響比最初預想的更加可怕。”

機器人也應有電子人的權利?

去年10月,霍金在英國劍橋建立了一個新的機構,試圖解決一些在人工智慧研究快速發展中出現的尚無定論的問題。

人工智慧的最新進展,包括歐洲議會呼籲起草一系列法規,以管理機器人和人工智慧的創新。令人感到些許驚訝的是,這裡面涉及到了一種形式的電子人格,以確保最有能力和最先進的人工智慧的權利和責任。歐洲議會發言人評論說,隨著日常生活中越來越多的領域日益受到機器人的影響,我們需要確保機器人無論現在還是將來,都為人類而服務。向歐洲議會議員提交的報告,明確認為世界正處於新的工業機器人革命的前沿。

報告中分析的是否給機器人提供作為電子人的權利,這等同于法人(的身份),也許有可能。報告強調,在任何時候,研究和設計人員都應確保每一個機器人設計都包含有終止開關。

奧斯本·克拉克跨國律師事務所的合夥人,洛納·布拉澤爾在報告中說,我們不承認鯨魚和大猩猩有人格,所以也沒有必要急於接受一個機器人人格。但是擔憂一直存在。報告承認在幾十年的時間內,人工智慧可能會超越人類智力範圍,人工智慧可能會超越人類智力範圍,進而挑戰人機關係。報告最後呼籲成立歐洲機器人和人工智慧機構,以提供技術、倫理和監管方面的專業知識。如果歐洲議會議員投票贊成立法,該報告將提交給歐盟委員會。

和未來幾十年後可能取得的成就相比,必然相形見絀。人工智慧的成功有可能是人類文明史上最大的事件。

人工智慧有可能是人類文明的終結

霍金說,人工智慧也有可能是人類文明史的終結,除非人類學會如何避免危險。人工智慧的全方位發展可能招致人類的滅亡,比如最大化使用智慧性自主武器。

今年早些時候,霍金和一些來自世界各國的科學家共同在聯合國會議上支持其對於核武器的禁令。目前,九個核大國可以控制大約一萬四千個核武器,它們中的任何一個都可以將城市夷為平地,放射性廢物會大面積污染農田,最可怕的危害是誘發核冬天,火和煙霧會導致全球的小冰河期。這一結果使全球糧食體系崩塌,末日般動盪,很可能導致大部分人死亡。

“我們作為科學家,對核武器承擔著特殊的責任,因為正是科學家發明了它們,並發現它們的影響比最初預想的更加可怕。”

機器人也應有電子人的權利?

去年10月,霍金在英國劍橋建立了一個新的機構,試圖解決一些在人工智慧研究快速發展中出現的尚無定論的問題。

人工智慧的最新進展,包括歐洲議會呼籲起草一系列法規,以管理機器人和人工智慧的創新。令人感到些許驚訝的是,這裡面涉及到了一種形式的電子人格,以確保最有能力和最先進的人工智慧的權利和責任。歐洲議會發言人評論說,隨著日常生活中越來越多的領域日益受到機器人的影響,我們需要確保機器人無論現在還是將來,都為人類而服務。向歐洲議會議員提交的報告,明確認為世界正處於新的工業機器人革命的前沿。

報告中分析的是否給機器人提供作為電子人的權利,這等同于法人(的身份),也許有可能。報告強調,在任何時候,研究和設計人員都應確保每一個機器人設計都包含有終止開關。

奧斯本·克拉克跨國律師事務所的合夥人,洛納·布拉澤爾在報告中說,我們不承認鯨魚和大猩猩有人格,所以也沒有必要急於接受一個機器人人格。但是擔憂一直存在。報告承認在幾十年的時間內,人工智慧可能會超越人類智力範圍,人工智慧可能會超越人類智力範圍,進而挑戰人機關係。報告最後呼籲成立歐洲機器人和人工智慧機構,以提供技術、倫理和監管方面的專業知識。如果歐洲議會議員投票贊成立法,該報告將提交給歐盟委員會。