華文網

霍金呼籲:全人類聯合起來,防禦人工智慧!

物理學是一門十分有影響力的學科,而物理學中最有影響力的人物,愛因斯坦和牛頓之外,霍金可以說無出其右。

著名理論物理學家史蒂芬·霍金(Stephen Hawking)無疑是當代社會最有影響力的人物之一。

而相當長的一段時間內,霍金一直十分關心一件事情:人類的未來。

從地外生命到人工智慧(AI)霍金一直在表達自己特立獨行甚至“非主流”的觀點。他一直對人工智慧表示非常擔憂。他並不反對開發人工智慧,也曾經說過人工智慧將是人類文明歷史上最重大的事件。但霍金更擔心人工智慧崛起可能帶來的各種負面影響。

霍金對外星人和人工智慧的擔憂已經很長時間

霍金已經表示人工智慧對中產階級工作崗位的影響將是毀滅性的,並與特斯拉CEO埃隆·馬斯克(Elon Musk)一起,呼籲禁止開發軍事用途人工智慧機器人。他也擔心人工智慧可能會接管世界,或者更糟糕的是,它會終止這個世界。在近期接受採訪時表示,

防禦人工智慧崛起的最好方式,是組建可以控制這種技術的“某種形式的世界政府”。

霍金解釋了他建立“國際管理機構”的理由:

自人類文明開始以來,人類的積極進取是有益的,因為它具有明確的生存優勢。它是在達爾文進化過程中滲透到我們人類基因的。然而,現在技術的發展速度,使這種積極進取可能以核戰爭或生物戰爭的方式摧毀我們人類。我們需要利用邏輯和理性來控制這種繼承下來的本能。

聯合國是當今世界最有影響力的國際組織,但對各國的約束十分有限

根據霍金的看法,某種形式的管理機構和快速適應的能力——這是即將到來的人工智慧或超級智慧時代我們生存的法寶。

幸運的是,

這樣的機構已經出現。這些機構,例如“人工智慧夥伴關係”(Partnership on AI)和人工智慧倫理與治理基金(Ethics and Governance of Artificial Intelligence Fund),已經開始制定有關指導方針或框架,以讓人們更負責任地開發人工智慧技術。國際電子電氣工程協會(IEEE)還發佈了世界首個有關人工智慧道德準則的“指南”。

霍金對AI所擔心的,

就是其對人類可能帶來的傷害

儘管對人工智慧的未來表現出了持續性的擔憂,但霍金對未來仍然感到樂觀:“這一切聽起來有點像厄運來臨,但我仍是一個樂觀主義者。我認為人類會奮起迎接這些挑戰。”