您的位置:首頁>科技>正文

「Hinton、吳恩達回望2017」AI有很多進展,但缺乏關鍵性突破

新智元編譯

2017年, 人工智慧越來越多地走入公眾生活對話的中心。 科技界的一些大佬仍然呼籲我們要繼續關注並警惕超級智慧型機器人接管世界的可能性;另一些人則表示這種恐懼是誇大其詞。 目前看, 更多的人工智慧從業者同意後者, 因為當前的AI遠遠稱不上智慧, 更不用說超級智慧。

美國智庫New America Foundation成員、科技網站AXIOS編輯Steve LeVine面向AI社區做了調查, 詢問如下問題:2017年, 人工智慧領域最重要的事件是什麼?以下就是他們的答案。

Geoffrey Hinton, 多倫多大學

我認為2017年AI在許多方面取得了很大的進展, 但並沒有令人矚目的突破, 比如2014年使用神經網路進行機器翻譯和2016年的AlphaGo。

在我看來, 最令人印象深刻的進展如下:

神經網路架構搜索:使用神經網路讓神經網路設計變得自動化的技術, 而且已經開始取得成效。

使用注意力(Attention)進行機器翻譯, 避免迴圈或卷積的操作。

下國際象棋的AlphaZero:AlpahZero很快就學會了用人類下棋的方式下國際象棋, 而且勝過了最強的國際象棋引擎。

Attention is all you need:穀歌提出的Transformer架構, 不用CNN也不用RNN, 是第一個完全依賴自注意力的轉導模型。 在8顆GPU上訓練3.5天, 機器翻譯單模型BLEU得分創下41.0的記錄, 泛化性能也很好。

吳恩達, Landing.AI首席執行官

AlphaGo展示了計算和資料的力量。 但是, CMU的撲克AI Libratus則進行了更多的創新。 從技術角度來看, Libratus是一個令人驚喜的結果。

Andrew Moore, CMU電腦科學學院院長

2017年, 人工智慧領域最重要的事情要數Libratus AI勝過四名頂級職業撲克玩家。 無限手德州撲克代表著一種新的遊戲, 在這裡AI必須考慮到對手可能在故意誤導自己。 如今社會對真實或虛假的資訊審查越來越嚴格, 我們也看到新一代的、對原始事實(raw facts)更加懷疑的AI出現, 這真是太神奇了。

Been Kim, 谷歌大腦研究科學家

今年我最高興見到的最大趨勢, 是大家對可解釋性AI的強大興趣。

今年, ICML開展了首個可解釋性tutorial,

以及兩個相關的研討會。 在2017年的NIPS會議上, 除了一個研討會(symposium)和兩個workshop外, 還有一些關於可解釋性的oral報告。 這個趨勢也將持續到明年——CVPR 2018計畫舉行關於可解釋性的tutorial, FATML會議也是如此。

Greg Diamos, 百度高級研究員

今年, 斯坦福大學一個研究團隊的工作令我印象非常深刻, 他們開發了首個AI放射科醫師, 用機器學習模型檢測心率失常, 效果比心電圖(ECG)更好, 同時系統還能更好地輔助人類醫生。 我認為隨著技術的發展, 人工智慧的醫學應用將會非常廣泛並且令人驚訝。

吳恩達領導的斯坦福小組研發的AI心率檢測儀,用機器學習模型檢測心率,效果勝過ECG

Azeem Azhar,Peer Index創始人、The Exponential View編輯

我會選擇兩個關於如何負責任地部署AI的工作。這兩者都幫助我們解決AI這個強大技術很容易被忽視的缺點。

首先是微軟研究院Kate Crawford的在NIPS的演講,介紹了機器學習演算法如何出錯,加強並擴大了現有的偏見。

第二是劍橋大學Adrian Weller撰寫的關於建立演算法系統的論文,這些演算法系統體現了我們對公平的直覺認知。我們必須注意Kate和Adrian所指出的不利因素,這樣才能促進世人對AI的接受和認可。

Rodney Brooks,Rethink Robotics創始人

2017年,我認為人工智慧領域最重要的事情,是2017年12月17日(星期天),我在國家橄欖球聯賽期間看到的一則廣告。這個廣告說,美國職業橄欖球大聯盟(NFL)現在使用機器學習來為球迷提供資訊。廣告的結尾顯示,NFL成為AWS客戶,在AWS上託管它的機器學習業務,對球員統計資料進行即時統計和分析。

這件事的意義在於,關於機器學習和人工智慧的炒作如今甚囂塵上,連NFL都預計他們跟ML沾邊會對NFL球迷產生影響。

Terah Lyons,Partnership on AI執行董事

今年我們見到了一系列令人痛心的事件,讓我們對邊緣化有了更多認知。以谷歌資料科學家Kristian Lum遭遇機器學習同僚性騷擾為代表,發生了許多值得我們警醒的事件,AI領域多樣性問題應該得到重視。

技術行業中的性騷擾和性別歧視對AI中具有災難性的後果,不僅是排外性設計本身,這樣的設計還很容易讓人類最糟糕的偏見被放大和延續。

我們所有人都有義務優先把包容作為創新的主要原則,特別是在有這種潛力帶來巨大利益的領域。2018年,在AI試圖解決的所有重大挑戰中,包容性應該是第一位的。

Richard Socher,Salesforce首席科學家

也許2017年最重要的主題是在本月初的NIPS會議上。在眾多令人印象深刻的技術發展中,倫理問題也是一個核心主題,它提醒大家,人工智慧的成功取決於信任、透明和平等的核心價值觀。

原文地址:https://www.axios.com/leading-researchers-name-the-biggest-ai-story-of-2017-2518675638.html

吳恩達領導的斯坦福小組研發的AI心率檢測儀,用機器學習模型檢測心率,效果勝過ECG

Azeem Azhar,Peer Index創始人、The Exponential View編輯

我會選擇兩個關於如何負責任地部署AI的工作。這兩者都幫助我們解決AI這個強大技術很容易被忽視的缺點。

首先是微軟研究院Kate Crawford的在NIPS的演講,介紹了機器學習演算法如何出錯,加強並擴大了現有的偏見。

第二是劍橋大學Adrian Weller撰寫的關於建立演算法系統的論文,這些演算法系統體現了我們對公平的直覺認知。我們必須注意Kate和Adrian所指出的不利因素,這樣才能促進世人對AI的接受和認可。

Rodney Brooks,Rethink Robotics創始人

2017年,我認為人工智慧領域最重要的事情,是2017年12月17日(星期天),我在國家橄欖球聯賽期間看到的一則廣告。這個廣告說,美國職業橄欖球大聯盟(NFL)現在使用機器學習來為球迷提供資訊。廣告的結尾顯示,NFL成為AWS客戶,在AWS上託管它的機器學習業務,對球員統計資料進行即時統計和分析。

這件事的意義在於,關於機器學習和人工智慧的炒作如今甚囂塵上,連NFL都預計他們跟ML沾邊會對NFL球迷產生影響。

Terah Lyons,Partnership on AI執行董事

今年我們見到了一系列令人痛心的事件,讓我們對邊緣化有了更多認知。以谷歌資料科學家Kristian Lum遭遇機器學習同僚性騷擾為代表,發生了許多值得我們警醒的事件,AI領域多樣性問題應該得到重視。

技術行業中的性騷擾和性別歧視對AI中具有災難性的後果,不僅是排外性設計本身,這樣的設計還很容易讓人類最糟糕的偏見被放大和延續。

我們所有人都有義務優先把包容作為創新的主要原則,特別是在有這種潛力帶來巨大利益的領域。2018年,在AI試圖解決的所有重大挑戰中,包容性應該是第一位的。

Richard Socher,Salesforce首席科學家

也許2017年最重要的主題是在本月初的NIPS會議上。在眾多令人印象深刻的技術發展中,倫理問題也是一個核心主題,它提醒大家,人工智慧的成功取決於信任、透明和平等的核心價值觀。

原文地址:https://www.axios.com/leading-researchers-name-the-biggest-ai-story-of-2017-2518675638.html

Next Article
喜欢就按个赞吧!!!
点击关闭提示