華文網

最厲害的人類圍棋選手也被電腦打敗了。關於人工智慧,這裡有 38 個你可能感興趣的事實【好奇心日報】

AlphaGo 戰勝人類最好圍棋選手,似曾相識的感覺

“以前柯潔和人類棋手下,

始終顯得很從容,但今天臉上充血,顯得很緊張。”韓國圍棋九段金庭賢說。

跟白皙的手臂相比,柯潔臉部漲的通紅。圖/Google

Google 黑板報整理了一段 22 秒的短視頻,柯潔揪了自己 4 次頭髮,剩下時間單手抵住下巴或者扶額。解說嘉賓常昊表示柯潔揪頭髮是緊張的表現。

其它一些比如皺眉、咬手指、側身坐、身子前傾等小動作和神情,頻繁被攝像機鏡頭捕捉到。

“他可以始終保持心理平靜和精神專注,就這方面而言,我覺得人類比不過它,儘管我還不大願意承認,AlphaGo 在棋藝上勝過人類。”

AlphaGo 幾乎不出錯的落子讓李世乭顯得有些絕望。

他正用手扶著額頭。圖/CNBC

同樣的情況你也可以在國際象棋棋王卡斯帕羅夫 1997 年對戰 IBM 深藍時看到。

他沒有考慮過自己會輸給深藍,之前還說過“國際象棋這遊戲就是為我而設的。”

卡斯帕羅夫在 1999 年達到 2851 國際棋聯國際等級分、2005 年退役。之後 8 年一直沒人能超過他,直到 2013 年才由挪威人卡爾森打破記錄。

但現在更多讓人們記住、知道卡斯帕羅夫的事情,還是他在 1997 年輸給國際象棋人工智慧“更深的藍”。

左邊雙手捧頭的就是卡斯帕羅夫。圖/Mashable

1997 年 5 月 11 日,國際象棋人工智慧只用 19 步就戰勝了卡斯帕羅夫。棋王這張雙手捧頭的照片成了他最廣為流傳的照片之一。

這次柯潔輸的很少,但 AlphaGo 用的處理器功耗也只有去年的 1/10。

下圍棋,人被電腦超過,已經沒有任何懸念。

關於 AlpaGo 和柯潔比賽本身的 7 個問題1. 賽前,外界已經不對人類報什麼希望

博☆禁☆彩網站預測給出 AlphaGo 獲勝賠率 1.05、柯潔獲勝賠率 8。也就是說買 100 元柯潔獲勝,將能獲得 800 元;買 100 元 AlphaGo 勝,能拿回 105元,只賺 5 塊錢。

這和去年李世乭比賽前大不相同,當時還有很多人覺得人類能贏,包括人工智慧專家。

“一年前我期待李世乭 3:2 或者 4:1 戰勝 AlphaGo,我當時沒預料它那麼強大。今年的結果毫無疑問,

AlphaGO 三場全勝。”曾帶隊製作跳棋和國際象棋程式的喬納森·謝弗爾教授告訴《好奇心日報在今年的 TED 大會做了一場演講,為我們描述了一個人工智慧主導社會生產的社會。

從積極的一面來看,人們有了更多的時間休閒,有更多時間來陪伴家人,這似乎是我們現在努力追求的東西,但是問題也出現了。

未來或許人類可以接受沒有工作,或者只領少許的薪水,但是這一切都會給社會造成經濟壓力,因為人類沒有有工作、或者只擁有少量收入,消費能力就就會減弱,從現有的社會經濟制度來看,社會產品和通貨緊縮,容易造成社會動盪。

福特認為,我們必須在傳統的工作中找到分離收入的辦法,在他看來,最好的解決方案是從保證最低收入開始,這麼做很可能會變得必不可少。

但是需要在基本工資的基礎上增加“獎勵機制”,鼓勵那些沒有工作的人去完成教育、參加社區服務,因此獲得更多的獎勵薪資。更重要的是,人們要知道如何在不需要工作的社會裡還能找到生活的意義和滿足感。

而這一切都需要社會的機制、體系進行改革和重塑,不會是件容易事。

福特的觀點可以看他的暢銷書《機器人時代:技術、工作與經濟的未來》。

37. 悲觀主義者包括霍金、馬斯克還有比爾·蓋茨,他們相信無節制發展人工智慧可能導致人類的毀滅

這三位都在最近表示過對人工智慧的擔憂。

史提芬·霍金:“我們已經擁有原始形式的人工智慧,而且已經證明非常有用。但我認為人工智慧的完全發展會導致人類的終結。”

埃隆·馬斯克:“我們需要萬分警惕人工智慧,它們比核武器更加危險。”

比爾·蓋茨:“如果我們處理得好,人工智慧具有積極意義……我同意伊隆·馬斯克和其他一些人的說法,不明白為什麼有些人並不關心。”

去年 4 月,馬斯克和美國初創公司孵化機構 Y Combinator 成立了一個非營利組織 OpenAI,準備籌集 10 億美元的資金,去對抗人工智慧可能會帶來的問題。

去年 9 月,亞馬遜、Facebook、Google、IBM 和微軟五家公司在去年 9 月聯合發起人工智慧聯盟 Partnership on AI,旨在努力減輕公眾對於正在學習自主思考的機器的恐慌。基於這五個巨頭的共識,這一行業聯合組織制定了一系列用於工程開發和科學研究的基本道德標準。

38. 就連機器人是不是應該決定人類生死,今天都還沒有定論

科幻小說家阿西莫夫在 1942 提出了著名的“機器人三定律”:機器人不得傷害人類,或因不作為使人類受到傷害;除非違背第一法則,機器人必須服從人類的命令;在不違背第一及第二法則下,機器人必須保護自己。

但這只是阿西莫夫的設想,不是各國軍隊的共識。事實上機器可以輕而易舉地決定人類的生死。目前在全球已經有超過 30 個國家配備了“致命性自主武器系統”,未來戰爭的一些區域可能是人工智慧在自主決定是否射殺螢幕上出現的運動物體。

美國國防部已經在實驗讓無人機自己判斷地面上誰是需要被消滅的敵人。

從軍隊角度,人工智慧決定生死有諸多好處,比如它效率更高、幾乎一定比人更準確,並且殺人不會有負罪感和戰後創傷。這引起巨大爭議。2013 年 5 月,由它引發的道義、倫理、人權問題首次被提到聯合國人權理事會。但這並不是一場一邊倒的爭論,阿西莫夫的三定律不一定是我們將會面對的未來。

用 MIT 斯隆商學院研究員 Michael Schrage 的話說,“如果庫布裡克再拍《奇愛博士》,他會拍這些自動化的武器。”

喜歡這篇文章?去 App 商店搜 好奇心日報 ,每天看點不一樣的。

但是這一切都會給社會造成經濟壓力,因為人類沒有有工作、或者只擁有少量收入,消費能力就就會減弱,從現有的社會經濟制度來看,社會產品和通貨緊縮,容易造成社會動盪。

福特認為,我們必須在傳統的工作中找到分離收入的辦法,在他看來,最好的解決方案是從保證最低收入開始,這麼做很可能會變得必不可少。

但是需要在基本工資的基礎上增加“獎勵機制”,鼓勵那些沒有工作的人去完成教育、參加社區服務,因此獲得更多的獎勵薪資。更重要的是,人們要知道如何在不需要工作的社會裡還能找到生活的意義和滿足感。

而這一切都需要社會的機制、體系進行改革和重塑,不會是件容易事。

福特的觀點可以看他的暢銷書《機器人時代:技術、工作與經濟的未來》。

37. 悲觀主義者包括霍金、馬斯克還有比爾·蓋茨,他們相信無節制發展人工智慧可能導致人類的毀滅

這三位都在最近表示過對人工智慧的擔憂。

史提芬·霍金:“我們已經擁有原始形式的人工智慧,而且已經證明非常有用。但我認為人工智慧的完全發展會導致人類的終結。”

埃隆·馬斯克:“我們需要萬分警惕人工智慧,它們比核武器更加危險。”

比爾·蓋茨:“如果我們處理得好,人工智慧具有積極意義……我同意伊隆·馬斯克和其他一些人的說法,不明白為什麼有些人並不關心。”

去年 4 月,馬斯克和美國初創公司孵化機構 Y Combinator 成立了一個非營利組織 OpenAI,準備籌集 10 億美元的資金,去對抗人工智慧可能會帶來的問題。

去年 9 月,亞馬遜、Facebook、Google、IBM 和微軟五家公司在去年 9 月聯合發起人工智慧聯盟 Partnership on AI,旨在努力減輕公眾對於正在學習自主思考的機器的恐慌。基於這五個巨頭的共識,這一行業聯合組織制定了一系列用於工程開發和科學研究的基本道德標準。

38. 就連機器人是不是應該決定人類生死,今天都還沒有定論

科幻小說家阿西莫夫在 1942 提出了著名的“機器人三定律”:機器人不得傷害人類,或因不作為使人類受到傷害;除非違背第一法則,機器人必須服從人類的命令;在不違背第一及第二法則下,機器人必須保護自己。

但這只是阿西莫夫的設想,不是各國軍隊的共識。事實上機器可以輕而易舉地決定人類的生死。目前在全球已經有超過 30 個國家配備了“致命性自主武器系統”,未來戰爭的一些區域可能是人工智慧在自主決定是否射殺螢幕上出現的運動物體。

美國國防部已經在實驗讓無人機自己判斷地面上誰是需要被消滅的敵人。

從軍隊角度,人工智慧決定生死有諸多好處,比如它效率更高、幾乎一定比人更準確,並且殺人不會有負罪感和戰後創傷。這引起巨大爭議。2013 年 5 月,由它引發的道義、倫理、人權問題首次被提到聯合國人權理事會。但這並不是一場一邊倒的爭論,阿西莫夫的三定律不一定是我們將會面對的未來。

用 MIT 斯隆商學院研究員 Michael Schrage 的話說,“如果庫布裡克再拍《奇愛博士》,他會拍這些自動化的武器。”

喜歡這篇文章?去 App 商店搜 好奇心日報 ,每天看點不一樣的。