您的位置:首頁>正文

DeepMind提出可微分邏輯程式設計,結合深度學習與符號程式優點

夏乙 編譯自 DeepMind Blog

量子位 出品 | 公眾號 QbitAI

神經網路的強大功能有目共睹, 但它往往需要大量與目標測試領域資料分佈相似的訓練資料;而用於符號領域的歸納邏輯程式設計只需少量資料, 卻無法對抗雜訊資料, 適用領域也很狹窄。

DeepMind在最近發表的一篇論文中, 提出了可微分歸納邏輯程式設計方法∂ILP, 既能解決傳統歸納邏輯程式設計擅長的符號類任務, 也對雜訊資料、訓練集中的誤差有一定容忍度, 還可以通過梯度下降來訓練。

怎麼樣?我們來看看DeepMind在官方博客上對這種方法的解讀:

想像一下踢足球的場景,

球到了你腳下, 你決定把它傳給沒人盯防的前鋒。 這個看似簡單的行為, 需要兩種不同的思維。

首先, 你認識到自己腳下有一個球, 這需要的是直觀的感性思維——你沒辦法簡單地描述出你是怎麼知道腳下有個球的。

其次, 你決定把球傳給特定的一個前鋒。 這個決策需要概念性思維, 你的決定依賴於理由——你把球傳給這個前鋒的原因, 是沒有人盯防她。

這種區別對我們來說很有意思, 因為這兩類思維對應著兩種不同的機器學習方法:深度學習和符號程式合成(symbolic program synthesis)。

深度學習專注于直觀的感性思維, 而符號程式合成專注於概念性的、基於規則的思考。 這兩個系統各有各的優點, 深度學習系統能適用於雜訊資料, 但難以解釋,

而且需要大量訓練資料;符號系統更易於解釋, 需要的訓練資料也更少, 但一遇到雜訊資料就不行了。

人類認知將這兩種截然不同的思維方式無縫結合在了一起, 但想要把這種結合複製到一個AI系統裡, 我們還不太清楚是否可能、如何做到。

我們最近在《JAIR》期刊(Journal of AI Research)上發表的論文表明, 系統可以將直觀的感性思維和概念性的可解釋推理結合起來。 我們所描述的∂ILP(可微分歸納邏輯程式設計, Differentiable Inductive Logic Programming)系統具有下列特性:抗雜訊、資料上很經濟、能產生可解釋的規則。

我們用一個歸納任務來演示∂ILP的工作原理:

已知一對表示數位的圖片, 系統需要根據左側圖像數位是否小於右側圖像的數位, 輸出0或1的標籤, 如下圖所示:

解決這個問題涉及兩種思維方式。 從圖像中認出數位, 需要直觀的感性思維;要整體理解“小於”關係, 則需要概念性的思考。

其實, 如果給標準的深度學習模型(例如帶有MLP的卷積神經網路)提供足夠的訓練資料, 它能學會有效地解決這個問題, 訓練完成後給它一對從未見過的新圖像, 它也可以正確分類。

但實際上, 只有每對數字你都給它多個樣例, 它才能正確地泛化。 這個模型擅長視覺上的泛化, 比如說測試集中的每一對數字它都見過了, 要泛化到新的圖像, 就很容易(見下圖綠色方塊)。 但它不適用於符號的泛化,

比如說它就不能泛化到從未見過的數字(見下圖藍色方塊)。

馬庫斯(Gary Marcus)、Joel Grus等研究者最近都撰文指出了這一點。

不同於標準的神經網路, ∂ILP能夠進行符號的泛化;它和標準的符號程式也不一樣, 可以進行視覺上的泛化。 ∂ILP從樣例中學習可讀、可解釋、可驗證的, 明確的程式。已知部分樣例(也就是預期的結果,下圖中的desired results),∂ILP能生成一個滿足需求的程式。它用梯度下降從程式空間中搜索,如果程式的輸出與參考資料需要的輸出相衝突,系統就會修改程式以更好地匹配資料。

∂ILP的訓練過程如下圖所示:

∂ILP能進行符號性的泛化,給它足夠多x

上圖總結了我們的“小於”實驗:藍色曲線表示標準的深度神經網路,無法正確泛化到從未見過的數字對,相比之下,在只用40%數位對訓練過的情況下,綠色曲線表示的∂ILP依然能保持較低的測試誤差。這表明,∂ILP能夠進行符號性的泛化。

我們相信,對於深度神經網路中是否能夠實現符號泛化這個問題,我們的系統能夠在某種程度上給予答案。今後,我們計畫將類似∂ILP的系統集成到強化學習智慧體以及更大的深度學習模組中,賦予系統推理、反應的能力。

相關論文:

Learning Explanatory Rules from Noisy Data

Richard Evans, Edward Grefenstette

http://www.jair.org/media/5714/live-5714-10391-jair.pdf

原文地址:

https://deepmind.com/blog/learning-explanatory-rules-noisy-data/

— 完 —

誠摯招聘

明確的程式。已知部分樣例(也就是預期的結果,下圖中的desired results),∂ILP能生成一個滿足需求的程式。它用梯度下降從程式空間中搜索,如果程式的輸出與參考資料需要的輸出相衝突,系統就會修改程式以更好地匹配資料。

∂ILP的訓練過程如下圖所示:

∂ILP能進行符號性的泛化,給它足夠多x

上圖總結了我們的“小於”實驗:藍色曲線表示標準的深度神經網路,無法正確泛化到從未見過的數字對,相比之下,在只用40%數位對訓練過的情況下,綠色曲線表示的∂ILP依然能保持較低的測試誤差。這表明,∂ILP能夠進行符號性的泛化。

我們相信,對於深度神經網路中是否能夠實現符號泛化這個問題,我們的系統能夠在某種程度上給予答案。今後,我們計畫將類似∂ILP的系統集成到強化學習智慧體以及更大的深度學習模組中,賦予系統推理、反應的能力。

相關論文:

Learning Explanatory Rules from Noisy Data

Richard Evans, Edward Grefenstette

http://www.jair.org/media/5714/live-5714-10391-jair.pdf

原文地址:

https://deepmind.com/blog/learning-explanatory-rules-noisy-data/

— 完 —

誠摯招聘

同類文章
Next Article
喜欢就按个赞吧!!!
点击关闭提示