您的位置:首頁>正文

霍金呼籲:全人類聯合起來,防禦人工智慧!

物理學是一門十分有影響力的學科, 而物理學中最有影響力的人物, 愛因斯坦和牛頓之外, 霍金可以說無出其右。

著名理論物理學家史蒂芬·霍金(Stephen Hawking)無疑是當代社會最有影響力的人物之一。 而相當長的一段時間內, 霍金一直十分關心一件事情:人類的未來。

從地外生命到人工智慧(AI)霍金一直在表達自己特立獨行甚至“非主流”的觀點。 他一直對人工智慧表示非常擔憂。 他並不反對開發人工智慧, 也曾經說過人工智慧將是人類文明歷史上最重大的事件。 但霍金更擔心人工智慧崛起可能帶來的各種負面影響。

霍金對外星人和人工智慧的擔憂已經很長時間

霍金已經表示人工智慧對中產階級工作崗位的影響將是毀滅性的, 並與特斯拉CEO埃隆·馬斯克(Elon Musk)一起, 呼籲禁止開發軍事用途人工智慧機器人。 他也擔心人工智慧可能會接管世界, 或者更糟糕的是,

它會終止這個世界。 在近期接受採訪時表示, 防禦人工智慧崛起的最好方式, 是組建可以控制這種技術的“某種形式的世界政府”。

霍金解釋了他建立“國際管理機構”的理由:

自人類文明開始以來, 人類的積極進取是有益的, 因為它具有明確的生存優勢。 它是在達爾文進化過程中滲透到我們人類基因的。 然而, 現在技術的發展速度, 使這種積極進取可能以核戰爭或生物戰爭的方式摧毀我們人類。 我們需要利用邏輯和理性來控制這種繼承下來的本能。

聯合國是當今世界最有影響力的國際組織, 但對各國的約束十分有限

根據霍金的看法, 某種形式的管理機構和快速適應的能力——這是即將到來的人工智慧或超級智慧時代我們生存的法寶。

幸運的是, 這樣的機構已經出現。 這些機構, 例如“人工智慧夥伴關係”(Partnership on AI)和人工智慧倫理與治理基金(Ethics and Governance of Artificial Intelligence Fund), 已經開始制定有關指導方針或框架, 以讓人們更負責任地開發人工智慧技術。 國際電子電氣工程協會(IEEE)還發佈了世界首個有關人工智慧道德準則的“指南”。

霍金對AI所擔心的, 就是其對人類可能帶來的傷害

儘管對人工智慧的未來表現出了持續性的擔憂, 但霍金對未來仍然感到樂觀:“這一切聽起來有點像厄運來臨, 但我仍是一個樂觀主義者。 我認為人類會奮起迎接這些挑戰。

同類文章
Next Article
喜欢就按个赞吧!!!
点击关闭提示