您的位置:首頁>正文

霍金再發警告:人工智慧可能通過核戰爭或生物戰爭摧毀人類

人工智慧(AI)技術一直是著名物理學家史蒂芬·霍金(Stephen Hawking)關注的重點。 繼2015年9月拋出“人工智慧威脅論”之後, 近日霍金再次表達了他對人工智慧技術的擔憂。

本月8日, 霍金向英國《獨立報》表示, 人類必須建立有效機制儘早識別威脅所在, 防止新科技(人工智慧)對人類帶來的威脅進一步上升。

霍金表示:

自從人類文明形成以來, 來自生存能力優勢群體的侵略就一直存在, 而未來新科技(人工智慧)進一步發展便可能具備這種優勢, 它們可能會通過核戰爭或生物戰爭摧毀我們。 因此人類需要利用邏輯和理性去控制未來可能出現的威脅。

霍金還就如何應對人工智慧的威脅給出了自己的建議。 霍金認為, 人類可以組成某種形式的“世界政府”來防範人工智慧可能帶來的威脅, 但他同時認為“世界政府”本身也有問題, 因為這樣一個政府可能會施行暴政。

實際上, 霍金是人工智慧技術的支持者, 霍金認為, 如今AI似乎已經滲透到各個領域, 包括推動自動汽車進步, 支持Facebook的廣告篩選功能, 並通過蘋果Siri、亞馬遜Alexa等虛擬助理與世界各地的人們互動。 AI甚至可幫助根除長期存在的社會挑戰, 比如疾病和貧困等。

但霍金也一直對AI帶來的潛在挑戰表示擔憂。 2015年9月, 霍金在美國網站reddit的AMA(問我任何問題)專欄中談到, 他擔心聰明能幹的AI會讓人類滅亡。

霍金表示:

一個超級聰明的AI可以非常好地實現它的目標, 如果這些目標都沒有與我們人類一致, 我們人類就麻煩了。

近年來, 隨著人工智慧技術蓬勃發展, 其潛在的威脅受到越來越多科學家的關注。

英國牛津大學教授、人類未來研究所創始人Nick Bostrom表示:

我認為改善全球治理很有必要, 不僅可應對AI帶來的危險挑戰, 也可解決擺在我們面前的其他巨大挑戰。 隨著世界不斷分化, 我們在不斷開發出越來越強大的工具, 我不確定人類是否能夠無限期生存下去。

對比霍金等人“人工智慧將威脅人類”的觀點, 普林斯頓大學電腦科學教授Edward Felten更關注眼下人工智慧技術帶來的影響, 他表示:

AI主要有兩個經濟風險:第一, 工人具備的技能與未來工廠所需要的技能可能不匹配。

第二, 通過增加資本所有者和某些高級技工的回報, AI可能加劇經濟不平等性。

Edward Felten認為, 電腦科學領域還不存在完美基礎, 可以促使機器智慧水準突然加速提高。 上述問題可以通過調整公共政策解決, 比如重新分配生產力。

同類文章
Next Article
喜欢就按个赞吧!!!
点击关闭提示