王新民 李林 編譯整理
量子位·QbitAI 出品
機器學習研究幾乎每週都有新進展, 不過, 這些新進展變成論文呈現在我們眼前的方式,
昨天, Google Brain的Chris Olah和Shan Carter發佈了一份專注於機器學習研究的新期刊:Distill(http://distill.pub/)。 不同于過去百餘年間的論文, Distill將利用互聯網, 以視覺化、可交互的形式來展示機器學習研究成果。
這份新期刊一經發佈, 創始人發文Olah表示以後一心搞Distill, 不再寫博客, Google Research、DeepMind、YC孵化器、OpenAI紛紛發文章進行介紹, Ian Goodfellow等人在Twitter熱情轉發, Reddit機器學習版也在熱烈討論。
大家的熱情不僅僅是因為它背景強大, Distill也確實戳到了從業者們的痛點。
1987年, 北京大學的錢天白教授向德國發出了第一封電子郵件。 到如今, 互聯網已經存在了將近30年。 然而在這30年間, 學術論文不過是原樣從紙質期刊搬到了PDF上。
舉個栗子:
某篇論文截圖
讀者為了看視頻還得複製連結-粘貼到流覽器-打開。 心疼寫論文和讀論文的科研人員3秒鐘。
一篇(理想的)Distill文章, 能讓用戶能直接與機器學習模型進行交互, 稱他們為“讀者”都顯得不太合適。
在理想的情況下, 這樣一篇文章能夠將解釋, 代碼, 資料和互動式視覺化工具集成到一個環境中。 在這樣的環境中, 使用者可以用傳統靜態媒體不可能實現的方式來探索這篇文章。
Distill會以標準方式被收錄到傳統的學術出版系統, 如ISSN, CrossRef等中。 你可以在Google學術中搜索到Distill的文章, 這也有助於文章的作者獲得學術信譽。 Distill文章使用創作共用署名授權協議(Creative Commons Attribution licenses)授權, 簡單來說就是引用要署作者名。
Distill不僅可以發表學術論文, 也接受高品質的說明性文章。
發佈之初, Distill上已經有了幾篇Google團隊發表的說明性文章, 分別關於神經網路的權值、使用t-SNE方法視覺化高維資料、使用神經網路生成手寫字母等主題。 這些文章就是我們上面提到的“高品質說明性文章”,