-
PyTorch 0.4.0遷移指南
PyTorch 0.4.0帶來了許多激動人心的新特性,同時也修正了許多bug.0.4.0 主要變動Tensor(張量)和Variable(變數)合併。0維張量(即標量)。volatile現在已經deprecate了(現在加了volatil
2018-04-25 1 -
聽說你想入坑AI,這位MIT博士有幾條建議給你
編者按:本文作者Tom Silver是MIT的博士生,並且已有兩年AI工作的經驗。最近,他在自己的博客上發表了文章,面向所有AI愛好者給出了一些具體的建議,包括學習和生活方面,希望對學生和職場小白有用。以下是論智對原文的編譯。注:Tom
2018-04-27 0 -
是朋友,就不要讓自己的兄弟用大於32的mini
編者按:對於現代深度神經網路的訓練來說,如果要用隨機梯度下降來收斂,我們一般會選用Mini-Batch,這也是工程界最常用的做法。儘管大批量可以為平行計算提供更多算力空間,但小批量已經被證明了通用性更好,佔用記憶體更少,而且收斂速度更快。
2018-04-28 1 -
如何改進梯度下降演算法?
編者按:梯度下降兩大痛點:陷入局部極小值和過擬合。Towards Data Science博主Devin Soni簡要介紹了緩解這兩個問題的常用方法。介紹基於梯度下降訓練神經網路時,我們將冒網路落入局部極小值的風險,網路在誤差平面上停止的
2018-04-19 2 -
一文解釋什麼是期望值
期望值是大量試驗之後隨機變數的平均值。隨機變數將數值映射到試驗的每個可能的結果。我們可以計算離散隨機變數的期望值——潛在的結果數目是可數的——每項是一個隨機變數的可能值,乘以該結果的概率,最後累加。例如,如果我們的隨機變數是投擲一個均勻的
2018-04-21 1 -
OpenAI頂尖研究員年薪190萬美元,員工仍不滿意?
編者按:去年,論智曾報導過2017年,全球資料科學和機器學習行業的平均年薪37萬。而近日,《紐約時報》的記者Cade Metz報導了特斯拉創始人Elon Musk創辦的人工智慧公司OpenAI裡幾名人工智慧專家的薪酬水準,以下是論智帶來的
2018-04-23 3 -
誰說演算法不能成精?淺談機器進化中的奇聞趣事
編者按:進化是一切複雜且精妙的適應性行為的源泉,然而這種能力並不只是自然界生物的特權,再電腦環境下的人造物體也展現出了令人驚訝的“演算法進化過程”。於是,來自美國、英國、法國等30多個學校和機構的研究人員們收集了幾十個令人驚訝的“機器進化
2018-04-16 4 -
什麼是學習率,以及它是如何影響深度學習的
編者按:當大家在訓練神經網路時,相信不少人曾深受超參數困擾,學習率(Leraning Rate)、權值初始化(Weight Initialization)……這些數位深刻影響著神經網路的性能,卻只能靠經驗和實驗來得出合適值。那麼,學習率究
2018-02-05 0 -
貝塔分佈背後的直覺:概率的概率分佈
編者按:貝塔分佈的定義很簡單,具有兩個參數α、β(α,β > 0)的一組定義在(0, 1)區間的連續概率分佈。但是,它背後的直覺卻不是那麼明顯。Stack Overflow資料科學家David Robinson在Cross Validat
2018-01-30 0 -
LOL官方不給API,玩家自製資料集DeepLeague免費開源
LOL遊戲角色:琴女以下是具體介紹:想像一下,如果此刻你是一名足球教練,你的球員剛剛輸掉了比賽,急於分析失敗原因的你會怎麼做?一種常規的方法是觀看比賽錄影,從全域把握賽場上的問題。而正在這時,有人突然塞給你一個電腦程式,它錄下了整場比賽,
2018-01-26 0 -
零基礎概率論入門:貝葉斯推斷
【編者按】由資料科學家Jonny Brooks-Bartlett撰寫的零基礎概率論教程的第三篇,貝葉斯推斷。上一篇文章介紹了機器學習和統計模型中的參數估計的最大似然方法。本文我們將介紹參數估計的另一個方法——貝葉斯推斷。我同時將展示如何把
2018-01-22 2 -
深度學習背景下的神經網路架構演變
【編者按】美國普渡大學生物工程學教授Eugenio Culurciello撰寫長文,以電腦視覺為中心,回顧了深度學習背景下神經網路的設計史。他授權論智編譯本文,希望中國讀者能喜歡他的作品。深度神經網路和深度學習是強大、流行的演算法。它們的
2018-01-23 1 -
Yann LeCun卸任FAIR負責人:“我更擅長做研究”
美國當地時間23日,Facebook宣佈Yann LeCun將辭去人工智慧研究實驗室(簡稱FAIR)負責人這一職務,接替他的是AI初創公司BenevolentTech的CEO兼IBM大資料集團CTO Jérôme Pesenti。同時,P
2018-01-24 0 -
零基礎概率論入門:基本概念
【編者按】概率論和線性代數是機器學習的兩大基石。可是,磚頭一樣厚的概率論教材讓許多人望而生畏。幸好資料科學家Jonny Brooks-Bartlett撰寫了一系列零基礎入門概率論的簡明教程。讓我們一起跟隨Jonny探索概率的世界吧。這麼些
2018-01-18 0 -
判斷醫學AI論文水不水,從讀懂ROC曲線開始
編者按:近年來,機器人和人工智慧大舉進軍醫學領域,為醫生和患者帶來了許多便利。當人們摒棄偏見,開始相信智慧系統、智慧硬體的診斷手術水準時,上月,放射科醫生、醫學博士生Luke Oakden-Rayner在博客中揭露了ChestXray14
2018-01-11 6 -
告別數學公式,圖文講解瑪律可夫鏈蒙特卡羅法
編者按:原文作者Ben Shaver專注于資料科學,他在本文中沒有用複雜的數學公式,為讀者講解了什麼是瑪律可夫鏈蒙特卡羅法,可以說是數學小白的福利啦。以下是論智對原文的編譯,如有不妥之處,還請批評指正。對很多人來說,貝葉斯統計說好聽點是一
2018-01-15 4 -
資料科學、機器學習和人工智慧到底有什麼區別?
編者按:如果你要寫3段同樣的代碼,你最好調用函數;如果你被人當面問了3次同樣的問題,你最好寫一篇文章……資料科學、機器學習、人工智慧,隨著這些詞日漸頻繁地出現在公眾視野裡,一些類似“程式師=修電腦”的誤會也逐漸變得常見起來。那麼,這三者的
2018-01-12 0 -
“看臉即知性取向”再遭質疑,谷歌研究人員現身說法指漏洞
編者按:本文作者為Blaise Agüera y Arcas、Alexander Todorov和Margaret Mitchell。Blaise Agüera y Arcas和Margaret Mitchell是穀歌的機器學習和人工智慧
2018-01-17 0 -
一文概覽神經網路啟動函數
最近我有一個同事老是問我“為什麼我們用這麼多啟動函數?”,“為什麼這個函數效果比那個好?”,“你怎麼知道要用哪個函數?”,“這是很難的數學?”等等。所以我想,我何不給對神經網路只有基本瞭解的人寫篇文章,介紹下啟動函數和相應的數學呢?注意:
2018-01-09 0 -
DENSER:用進化演算法自動設計神經網路
編者按:近日,科英布拉大學電腦設計與視覺實驗室(Computational Design and Visualization Lab)的Filipe Assunção、Nuno Lourenço、Penousal Machado、Bern
2018-01-10 0