您的位置:首頁>設計>正文

英特爾放大招:手拉Facebook推首款神經網路處理器

面對英偉達在人工智慧晶片領域的快速崛起, 老牌晶片生產商英特爾坐不住了, 這次打出了 “組合牌”:拉上Facebook一起發佈專為深度學習設計的系列處理器。 近日報導出了它與facebook攜手首款神經網路處理器。

“在我們向市場推出新一代人工智慧硬體之際, 能與Facebook密切合作, 共用其技術見解, 我們感到激動。 ”科再奇在英特爾的官方博客上寫道, “在華爾街日報舉辦的‘全球技術大會’ (WSJDLive)上, 我談到認知和人工智慧(AI)技術將會給行業帶來巨大轉變, 也為市場帶來了巨大機會, 到2020年, 這兩個領域的收入將達到460億美元。 英特爾會在硬體、資料演算法和分析上進行研究和投資。

”英特爾稱, Facebook將為一款針對人工智慧設計的晶片提供技術輸入。 未來, 英特爾只向包括Facebook在內的有限數量的合作夥伴提供人工智慧晶片, 獲得回饋資訊, 然後明年推出第二代晶片。

據科技網站mspoweruser的報導, 新晶片有四大 優勢一、新的記憶體架構, 旨在最大限度地提高矽計算的利用率。

二、實現人工智慧模型可擴展性的新水準。 Nervana NNP擁有高速的開和關晶片, 可實現內部資料互聯, 從而允許大量資料的雙向轉換。 這種設計的目的是實現真正的模型並行化, 即神經網路的參數分佈在多個晶片中。 這使得多個晶片像一個大型虛擬晶片工作, 因而能容納大型的模型, 使客戶能從資料中獲得更多的洞見。

三、高度數值並行性:Flexpoint。 在單個晶片上做神經網路計算, 會受到能耗和存儲頻寬的限制。 為了使神經網路的工作負載能獲得更大的輸送量, 除了上述的存儲技術革新, 英特爾還發明了一種新的數數值型別, 即Flexpoint。 Flexpoint允許使用定點乘法和加法實現標量計算, 並可以通過共用指數實現大動態範圍。

四、英特爾稱這只是這個矽基晶片系列的第一個產品, 並計畫利用這個系列在2020年將深度學習訓練的性能提升100倍。

對於Facebook來說, 它在2013年12月成立了人工智慧實驗室, 並請來了機器學習大牛、紐約大學教授楊立昆(Yann LeCun)作為該實驗室的負責人。 但在硬體上, Facebook相對薄弱。 在此之前, 穀歌已經推出了針對深度神經網路的TPU, 這是穀歌專為加速深層神經網路運算能力而研發的晶片,

這款晶片也是AlphaGo成功的關鍵。 這次與英特爾共同設計人工智慧晶片, 也算是Facebook補強硬體的一步。

神經網路處理器的設計目的是為了快速解決AI應用遇到的數學問題, 特別是神經網路, 它是目前比較流行的機器學習技術分支。

目前流行的大型、深度神經網路面臨的問題是, 它們的計算能力非常強, 但這也使得它們很難快速地進行測試和部署。 目前, 英特爾有三代矽晶片, 該公司計畫每年至少推出一款新硬體產品。

Next Article
喜欢就按个赞吧!!!
点击关闭提示