您的位置:首頁>科技>正文

一群學術大牛做了個機器學習新期刊,想讓學術論文不那麼枯燥

王新民 李林 編譯整理

量子位·QbitAI 出品

機器學習研究幾乎每週都有新進展, 不過, 這些新進展變成論文呈現在我們眼前的方式,

可以說是百餘年不變。

昨天, Google Brain的Chris Olah和Shan Carter發佈了一份專注於機器學習研究的新期刊:Distill(http://distill.pub/)。 不同于過去百餘年間的論文, Distill將利用互聯網, 以視覺化、可交互的形式來展示機器學習研究成果。

這份新期刊一經發佈, 創始人發文Olah表示以後一心搞Distill, 不再寫博客, Google Research、DeepMind、YC孵化器、OpenAI紛紛發文章進行介紹, Ian Goodfellow等人在Twitter熱情轉發, Reddit機器學習版也在熱烈討論。

大家的熱情不僅僅是因為它背景強大, Distill也確實戳到了從業者們的痛點。

1987年, 北京大學的錢天白教授向德國發出了第一封電子郵件。 到如今, 互聯網已經存在了將近30年。 然而在這30年間, 學術論文不過是原樣從紙質期刊搬到了PDF上。

舉個栗子:

某篇論文截圖

讀者為了看視頻還得複製連結-粘貼到流覽器-打開。 心疼寫論文和讀論文的科研人員3秒鐘。

一篇(理想的)Distill文章, 能讓用戶能直接與機器學習模型進行交互, 稱他們為“讀者”都顯得不太合適。

在理想的情況下, 這樣一篇文章能夠將解釋, 代碼, 資料和互動式視覺化工具集成到一個環境中。 在這樣的環境中, 使用者可以用傳統靜態媒體不可能實現的方式來探索這篇文章。

他們可以改變模型的結構, 嘗試不同的假設條件, 並且可以立刻看到操作對結果的影響。 這能幫助用戶們快速建立對文章的理解。

Distill會以標準方式被收錄到傳統的學術出版系統, 如ISSN, CrossRef等中。 你可以在Google學術中搜索到Distill的文章, 這也有助於文章的作者獲得學術信譽。 Distill文章使用創作共用署名授權協議(Creative Commons Attribution licenses)授權, 簡單來說就是引用要署作者名。

Distill不僅可以發表學術論文, 也接受高品質的說明性文章。

發佈之初, Distill上已經有了幾篇Google團隊發表的說明性文章, 分別關於神經網路的權值、使用t-SNE方法視覺化高維資料、使用神經網路生成手寫字母等主題。 這些文章就是我們上面提到的“高品質說明性文章”,

也向我們展示了Distill文章的形式。

Next Article
喜欢就按个赞吧!!!
点击关闭提示