您的位置:首頁>科技>正文

馬斯克再提醒:不受監管的AI比核武器更危險

8月14日消息, 據Futurism報導, 科技大亨伊隆·馬斯克(Elon Musk)不久前在推特上發佈了一張照片, 引發人們對人工智慧(AI)安全性的爭論。 當時馬斯克發佈了有關賭博上癮廣告的圖片, 上面寫著“最終機器會贏”, 顯然他不僅僅指賭博機。 更重要的是, 馬斯克稱AI帶來的危險比朝鮮核武器更大。

在隨後的推文中, 馬斯克詳細闡述了對AI系統開發進行監管的必要性。 這與他本月早些時候所說的話相呼應, 當時他說:“我認為, 任何對公眾構成危險的事情, 至少政府應該有所瞭解, 因為政府的義無之一就是確保公共福利。 沒有人喜歡受到監管, 但對公眾有危險的任何東西(包括汽車、飛機、食品以及藥品等)都應該受到管制, AI也是如此。 ”

流覽對馬斯克推文的評論發現, 似乎大多數人都在某種程度上同意馬斯克的意見。 名為丹尼爾·佩德拉薩(Daniel Pedraza)的用戶認為:“我們需要一個適應性較強的框架,

不需要固定的規則、法律或原則, 這對管理AI有好處。 這個領域正在不斷地變化和演進, 任何固定的規則很快就會失效。 ”

許多專家都不願意AI發展得太快。 它造成的威脅聽起來可能有點兒像科幻小說中的場景, 但它們最終可能被證明是有效的。 像史蒂芬·霍金(Stephen Hawking)這樣的專家早就發出警告, 宣稱AI有終結人類的可能。 在2014年採訪中, 這位著名的物理學家說:“AI的發展可能預示著人類的終結。 ”他甚至認為自動化的擴散對中產階級是一種有害的力量。

另一位專家、MetaMed Research的首席科學官邁克爾·瓦薩爾(Michael Vassar)指出:“如果遠超人類的通用人工智慧沒有受到謹慎監管, 可以肯定的是, 人類將在非常短的時間內滅絕。 ”

很顯然, 至少在科學界, AI的自由發展可能不符合人類的最佳利益。

很多人已經開始著手制定這些規則, 以確保AI的發展“合乎道德規範”。 電氣與電子工程師協會提出了他們的第一份規則草案, 希望能引導開發人員朝著正確的方向發展。

此外, 在政府介入之前, 科技巨頭們也正在制定自我監管規則。 來自谷歌、亞馬遜、微軟、IBM以及Facebook等大型科技公司的研究人員和科學家已經開始討論, 以確保AI造福於人類, 而不是成為人類的生存威脅。

當然, 要想達到足以威脅人類生存的程度, AI還有很長的路要走。 然而, AI的進步是突飛猛進的。 著名未來學家雷·庫茲韋爾(Ray Kurzweil)預言, 電腦將在2045年變得比人類更聰明。 然而, 他並不認為這是件可怕的事。 也許, 科技公司的自我監管將足以確保這些擔憂變得毫無意義,

或者最終可能需要政府的説明。 不管你的感覺如何, 現在開始這些對話不算杞人憂天。 但與此同時, 也不要過於擔心, 除非你是個有競爭力的玩家。

Next Article
喜欢就按个赞吧!!!
点击关闭提示