人工智慧在2017年成了熱門話題。 一些人認為, 超級智慧型機器人可能會以令人不舒服的方式接管這個世界; 另一些人則表示這種恐懼被誇大了。 後者的觀點獲得了大多數人的支持, 因為AI目前還遠沒有超越人類的智慧。
我們針對“你眼中2017年最重要的AI大事件是什麼?”進行了一次問卷調查, 科技大佬如辛頓、吳恩達、安德魯·摩爾等紛紛給出了他們的答案。
Rethink Robotics公司創始人
2017年對我來說最重要的人工智慧事件是, 我在2017年12月17日星期天NFL比賽轉播中看到的一條電視廣告。 這條NFL的廣告說, 它現在使用機器學習挖掘粉絲需求。 廣告的結尾顯示NFL正在AWS(亞馬遜網路服務)上託管它的ML項目。 這是三個星期前的一件事。 我感覺其意義在於, 關於ML / AI的炒作如此廣泛, 估計會對NFL球迷產生影響。
吳恩達:Landing.AI CEO
AlphaGo展示了計算和資料的力量。 但是, 卡內基梅隆大學的Libratus, 一個不斷反覆運算的德撲程式,
卡耐基梅隆大學電腦科學學院院長
Libratus AI勝過四名頂級職業撲克玩家。 無限制德州撲克解鎖了一種新的遊戲形式, 即AI必須考慮對手的故意誤導。 在一個對資訊真實度越來越需要嚴格甄別的世界, 我們看到新一代AI對原始事實的甄別加強了, 這真是太神奇了。
多倫多大學教授
我認為2017年AI在許多方面都取得了很大的進展, 但並沒有突破性的進步(2014年神經網路用於機器翻譯, 2016年AlphaGo征戰)。
在我看來, 最令人印象深刻的進展如下:
神經網路架構搜索:使用神經網路自動化神經網路設計, 並已經發揮作用。
基於注意力機制的機器翻譯, 不再需要迴圈或者卷積了。
Alpha zero下國際象棋:它很快就學會下國際象棋, 並且超出了世界上最好的國際象棋軟體的水準。
葛列格·迪亞莫斯(Greg Diamos):百度矽谷人工智慧實驗室高級研究員
今年, 我對斯坦福大學的研究團隊印象非常深刻, 他們開發了第一批可以檢測心律失常並及時告知人類醫生的AI放射科醫師。
阿茲·哈爾(Azeem Azhar):
Peer Index創始人, Exponential View 負責人
我關注兩個探討AI如何負責任施行的事例。 這兩個事例都有助於我們解決AI的缺點。
第一個是微軟研究院的凱特·克勞福德(Kate Crawford)的一次演講, 他介紹了機器學習演算法是如何出錯的, 是如何強化和擴大現有偏見的。
第二個是劍橋大學阿德里安·韋勒(Adrian Weller)撰寫的論文, 要構建符合我們公平直覺的演算法系統。
我們必須處理好凱特和阿德里安所提出的問題, 以利於技術人員的研究和發展。
泰拉·里昂(Terah Lyons):Partnership on AI執行主席
今年, 邊緣化問題給我們帶來了一波又一波震驚。 女研究員克裡斯汀·隆(Kristian Lum)受到同事性騷擾事件就是一個警示, 多樣性問題已經不是一個次要的問題了, 這會對人工智慧領域產生明顯的影響。
技術行業不斷猖獗和有害的性別歧視問題會給AI領域帶來災難性的後果, 排他性設計帶來的災難性後果會產生一系列其他的問題, 其中技術放大和延續人類偏見是最糟糕的。
我們所有人都有責任把包容作為創新的首要原則,特別是在能夠產生巨大利益的AI領域。2018年人工智慧領域將要解決的所有重大挑戰中,包容必須在第一位。
賓恩·金(Been Kim):谷歌大腦研究科學家
今年最讓我感到興奮的話題是可解釋性,這意味著人類可以理解人工智慧模型。
今年,國際機器學習會議(ICML )第一次探討了可解釋性,還舉辦了兩個相關的研討會。在2017年的NIPS會議上,除了一個研討會和兩個講習班,還有幾次關於可解釋性的口頭報告。這一趨勢似乎可以持續到明年——CVPR會議和FATML會議將繼續探討可解釋性。
理查·索徹(Richard Socher):Salesforce的首席科學家
也許2017年最重要的事件出現在本月初的NIPS會議上。倫理道德在研究領域是令人印象深刻的一大創新性的主題,它是一個重要的提醒,提醒每個人,人工智慧的成功依賴于信任、透明和平等的核心價值觀。
—完—
作者:Steve LeVine
智能觀 編譯
親愛的朋友:
通過科技大佬眼中的大事件,我們可以看到過去的這一年AI領域里程碑式的進展,也可以感知接下來的方向。
那麼,這一年中,讓你印象深刻的AI事件有哪些呢?
祝安!
智慧觀 一米
2017-12-28 於北京中關村
想知道AI加教育領域有哪些最新研究成果?
想要AI領域更多的乾貨?
想瞭解更多專家的“智慧觀”?
請在對話介面點擊“找找看”,去獲取你想要的內容吧。
其中技術放大和延續人類偏見是最糟糕的。我們所有人都有責任把包容作為創新的首要原則,特別是在能夠產生巨大利益的AI領域。2018年人工智慧領域將要解決的所有重大挑戰中,包容必須在第一位。
賓恩·金(Been Kim):谷歌大腦研究科學家
今年最讓我感到興奮的話題是可解釋性,這意味著人類可以理解人工智慧模型。
今年,國際機器學習會議(ICML )第一次探討了可解釋性,還舉辦了兩個相關的研討會。在2017年的NIPS會議上,除了一個研討會和兩個講習班,還有幾次關於可解釋性的口頭報告。這一趨勢似乎可以持續到明年——CVPR會議和FATML會議將繼續探討可解釋性。
理查·索徹(Richard Socher):Salesforce的首席科學家
也許2017年最重要的事件出現在本月初的NIPS會議上。倫理道德在研究領域是令人印象深刻的一大創新性的主題,它是一個重要的提醒,提醒每個人,人工智慧的成功依賴于信任、透明和平等的核心價值觀。
—完—
作者:Steve LeVine
智能觀 編譯
親愛的朋友:
通過科技大佬眼中的大事件,我們可以看到過去的這一年AI領域里程碑式的進展,也可以感知接下來的方向。
那麼,這一年中,讓你印象深刻的AI事件有哪些呢?
祝安!
智慧觀 一米
2017-12-28 於北京中關村
想知道AI加教育領域有哪些最新研究成果?
想要AI領域更多的乾貨?
想瞭解更多專家的“智慧觀”?
請在對話介面點擊“找找看”,去獲取你想要的內容吧。