回顧AAAI|如何參加國際頂級人工智慧大會?
編者按:今年的AAAI大會已於2月份落下了帷幕。來自微軟亞洲研究院自然語言計算組的實習生星辰在大會結束之後分享了她的參會經歷與體驗,
一場美國人工智慧年會
美國人工智慧年會(AAAI Conference on Artificial Intelligence),簡稱AAAI,是人工智慧領域的頂級國際會議。 該會議固定在每年的2月份舉行,由AAAI協會主辦。今年第三十一屆AAAI共計收到2700餘篇投稿,最終錄取580篇左右,錄取率為25%,錄取論文涉及博弈論、搜索、視覺、知識表示、機器學習、機器人學、自然語言處理等多個方向。
本次AAAI大會於2月4日至9日在美國三藩市舉行。 三藩市(San Francisco)位於美國太平洋沿岸的灣區,是北加州的商業與文化發展中心,
大會主要包括四大部分,其中包括為期一天多的輔導(tutorials),五天的大會會議(technical program)和穿插其中的邀請演講(invited talks)。大會第一天的教程總共有22個,每個教程時長為4小時。其中,微軟亞洲研究院的陳薇博士做了題為“分散式機器學習的最新進展”的教程,獲得了參會者的關注和回應。
本次大會最令我感到興奮的環節是以“AI in practice”為題的系列講座。
奪目的最佳會議論文
本次AAAI的傑出論文獎授予了斯坦福大學的Russell Stewart和Stefano Ermon的“Label-Free Supervision of Neural Networks with Physics and Domain Knowledge”。本文試圖將神經網路的學習過程,從樣例-標籤對的結構中解脫出來,
與AAAI大會的親密接觸
本次大會,我在武威研究員指導下的工作“Topic aware Neural Response Generation”被收錄。我們的這項工作主要用於聊天機器人的自動回應生成。傳統的應答生成模型Seq2Seq,在生成應答的時候存在一個問題,即經常生成通用性的回答,如“哦我知道了”,“我也是”。這些通用性的回答雖然可以回復多種多樣的消息(message),但是由於它們缺乏多樣性和資訊性,通常難以取悅用戶。我們為了解決這個問題,提出將message的主題相關的資訊從額外的資料中提取出來,將這些豐富的主題相關的資訊引入生成過程,説明生成多樣的有信息量的應答。
具體來說,我們預先利用大量網路資料訓練一個Twitter LDA主題模型,並且讓該主題模型為每個message 賦予一個話題,我們用該話題下受歡迎程度最高的n的片語成該message的話題詞列表。在生成模型中,我們一方面在輸入端設計一個話題注意度,自動選擇比較重要的話題詞來引入新資訊説明生成;另一方面,在輸出端,我們為每個話題詞增加一個額外的概率,使得它們在生成應答過程中更容易被選擇,從而增加生成的應答的信息量和豐富程度。
我們採取人工標注,隨機和生成應答中的相異單詞數來評判模型性能。實驗結果顯示我們的模型TA-Seq2Seq在這三個指標上均很大程度地超過了基本的方法,並且在具體案例的應用中,生成了很多令人興奮的應答。
我從博士二年級開始在周明老師的自然語言計算組實習。在這裡我邁出了我的科研第一步,在老師和同學的幫助下發表了人生中第一篇論文;並且在後續的科研工作中,也極大的受益于老師的指導,組裡科研氛圍的薰陶,和小夥伴們貼心的幫助和支持。參與AAAI這樣的大會對我而言是一次成長很多的體驗,感謝組裡的導師和同學們,我也期待跟大家一起努力,做出更加有影響力的工作。
作者簡介
我叫星辰,是微軟亞洲研究院自然語言計算組的實習生,就讀于南開大學攻讀博士學位。我的研究興趣是對話生成,自然語言處理,深度學習。
你也許還想看:
AAAI |如何保證人工智慧系統的準確性?【大會分享】AAAI-16: 源遠流長,博大包容別恐慌,大眾關心的人工智慧問題學界都在努力求解感謝你關注“微軟研究院AI頭條”,我們期待你的留言和投稿,共建交流平臺。來稿請寄:msraai@microsoft.com。
微軟小冰
與AAAI大會的親密接觸
本次大會,我在武威研究員指導下的工作“Topic aware Neural Response Generation”被收錄。我們的這項工作主要用於聊天機器人的自動回應生成。傳統的應答生成模型Seq2Seq,在生成應答的時候存在一個問題,即經常生成通用性的回答,如“哦我知道了”,“我也是”。這些通用性的回答雖然可以回復多種多樣的消息(message),但是由於它們缺乏多樣性和資訊性,通常難以取悅用戶。我們為了解決這個問題,提出將message的主題相關的資訊從額外的資料中提取出來,將這些豐富的主題相關的資訊引入生成過程,説明生成多樣的有信息量的應答。
具體來說,我們預先利用大量網路資料訓練一個Twitter LDA主題模型,並且讓該主題模型為每個message 賦予一個話題,我們用該話題下受歡迎程度最高的n的片語成該message的話題詞列表。在生成模型中,我們一方面在輸入端設計一個話題注意度,自動選擇比較重要的話題詞來引入新資訊説明生成;另一方面,在輸出端,我們為每個話題詞增加一個額外的概率,使得它們在生成應答過程中更容易被選擇,從而增加生成的應答的信息量和豐富程度。
我們採取人工標注,隨機和生成應答中的相異單詞數來評判模型性能。實驗結果顯示我們的模型TA-Seq2Seq在這三個指標上均很大程度地超過了基本的方法,並且在具體案例的應用中,生成了很多令人興奮的應答。
我從博士二年級開始在周明老師的自然語言計算組實習。在這裡我邁出了我的科研第一步,在老師和同學的幫助下發表了人生中第一篇論文;並且在後續的科研工作中,也極大的受益于老師的指導,組裡科研氛圍的薰陶,和小夥伴們貼心的幫助和支持。參與AAAI這樣的大會對我而言是一次成長很多的體驗,感謝組裡的導師和同學們,我也期待跟大家一起努力,做出更加有影響力的工作。
作者簡介
我叫星辰,是微軟亞洲研究院自然語言計算組的實習生,就讀于南開大學攻讀博士學位。我的研究興趣是對話生成,自然語言處理,深度學習。
你也許還想看:
AAAI |如何保證人工智慧系統的準確性?【大會分享】AAAI-16: 源遠流長,博大包容別恐慌,大眾關心的人工智慧問題學界都在努力求解感謝你關注“微軟研究院AI頭條”,我們期待你的留言和投稿,共建交流平臺。來稿請寄:msraai@microsoft.com。
微軟小冰