您的位置:首頁>科技>正文

英特爾「機密檔案」:嚴防死守背後,是怎樣的一條AI硬體進擊路

機器之能, 是機器之心旗下關注全球人工智慧產業應用場景及商業化的內容帳號。 歡迎關注與互動:almosthuman2017

無論「Intel Inside」的標籤有沒有貼在設備上, 從訓練到推理, 從伺服器到終端的 AI 全產業鏈上, 一個不可忽略的事實就是:Intel is still Inside。 除了大型 GPU, 對於每一種架構風格, 英特爾也有一個或更多的處理器產品。 英特爾正在不斷改進其在智慧時代的表現, 也將繼續影響我們的生活。

撰文 | 邱陸陸

編輯 | 微胖

Intel inside, 可以說是 20 世紀最成功的品牌行銷活動之一, 借由它, 生產「晶片」這個普通消費者看不見也摸不著的產品的英特爾, 變成了家喻戶曉的品牌。

不過, 提起 AI 時代的晶片, 英特爾卻未必是首先被想起的名字。

一方面, 獨立 GPU 的主要市場份額持有者英偉達, 用不到兩年時間裡超過五倍的市值增長神話, 彰顯了自己的明星地位。

另一方面, 曾經從英特爾大量採購晶片的科技巨頭公司,

例如穀歌、微軟、亞馬遜等也開始了其晶片的自主研發。

加之曾在 CPU 領域與英特爾業務高度重合的 AMD 和 ARM 正持續發力, 以及 IBM Power 處理器的開源, 英特爾的霸主地位似乎正在動搖。

不過, 沒聽說過 Movidius VPU(視覺處理單元), 你可能知道大疆(DJI)今年推出了一款具有手勢識別遙控功能的迷你無人機。

不熟悉 Mobileye 這個名字, 或許聽過特斯拉 Autopilot 功能及其一度因為交通事故引發的爭議。

這些人工智慧硬體公司採用的晶片前, 都要加一個英特爾商標。

事實上, 借由其體量的優勢, 英特爾在 AI 硬體方面完成了深遠佈局。 從訓練到推理, 從伺服器到終端的 AI 全產業鏈上, 一個不可忽略的事實就是:Intel is still Inside。

不過, 2015 年的英特爾還是另一番景象。

此時的英特爾還沒從移動晶片一役中喘過氣來。

受制於電池瓶頸, x86 架構慘敗於 ARM, 被高通切走了移動晶片的大蛋糕。

但英特爾並不甘心。

2014 年, 公司成立單獨的「移動與通訊事業部」(MCG), 並在財報上分部報告業績。 結果, MCG 當年第四季度因為高額補貼和慘澹銷量最終報出了「負營收」。 隨後, MCG 被迅速併入 PC 晶片所在的「用戶端計算事業部」(CCG)。

當許多人都在擔心, 英特爾會不會像諾基亞、柯達這些巨頭一樣「成于規模敗于規模」時, 它已經開始更換策略備戰人工智慧浪潮。

「買買買」

在某些市場比較成熟時, 英特爾開始尋找一些收購機會。

在它的購物車裡, 僅過去兩年、僅直接生產人工智慧相關晶片的收購, 就有 4 筆之多, 且都是一擲千金的溢價大手筆。

比如, 2015 年 12 月公司斥資 167 億美元收購了 FPGA 領域第二大製造商 Altera。

今年 3 月, 153 億美元收購自動駕駛 SoC 生產商 Mobileye。

敗家歸敗家, 英特爾還是從一系列的收購舉措裡補全了自己的生態鏈。

首先是移動端和車載終端。

端智慧, 是未來趨勢之一。 物聯網需要深度學習, 還需要邊緣計算。

在影像處理領域, Movidius Myriad X VPU 和 Mobileye EyeQ 可以讓終端設備獲得能夠當場應用訓練好的神經網路模型進行推理的能力,

並滿足其他市場需求, 比如隱私保護、網路環境條件的限制以及功耗限制等。

今年 10 月, 穀歌在「穀歌製造」(Made by Google)活動上宣佈了 8 款全新硬體產品, 其中, 非常引人注目的一款 Google Clips 相機就應用了 Movidius Myriad 2 VPU 晶片。

Movidius 的視覺處理晶片 VPU 大小都在 1 平方釐米以內, 功率小於 1W。 可用於各類有一定圖形運算需求的小型終端設備。 市場上最常見的一代 VPU 產品 Myriad 2, 價格不到 10 美元。

巴掌大小的 Clips 相機面向家庭場景, 能夠自動尋找有價值的瞬間並進行捕捉。 當相機看到一張「圖片」時, 系統會自動計算它的「價值」, 決定保留還是捨棄它, 為更多的照片騰出空間。

所有這些機器學習演算法都在機器本地運行, 最大程度保護了用戶的隱私。

如果說,Clips 主要出於隱私和功耗考慮選擇本地部署深度學習推理能力,那麼,大疆的 Spark 無人機主要考慮到網路環境和延遲因素。

無人機飛行環境具有多樣性,即時控制非常重要,因此本地算力必不可少。Spark 用 VPU 獲得了空間感知與情景感知能力,並且加入了手勢控制功能。

2016 年底,簽訂合作協定後,國內安防巨頭海康威視基於 Xeon 伺服器 + Myriad 2 的架構實現了可以進行全景監測、也可以進行細節抓拍、雲端和本地算力結合的攝像機系列。

今年 7 月,Movidius 還發佈了擁有 Myriad 2 核心的神經計算棒(ncs),可以用 1W 的功耗獲得最高 100 GFLOPs 的性能,長成了一個 U 盤的樣子,讓開發者可以方便地在自己的電腦上完成神經網路的驗證和調試。

如果開發者對終端算力的要求更高一些,對即時性更敏感一些,那麼他很可能在做自動駕駛研發。

翻翻英特爾的購物車,你又可以找到 Mobileye EyeQ 系列。

全世界累計超過 1500 萬輛車中安裝了 Mobileye 的系統,你甚至可以在淘寶上買到可以自行安裝在車裡的面向個人使用者版本的 ADAS 系統。

或許你不知道,身邊的富豪、通用、寶馬、現代等車輛裡的輔助駕駛功能大多通過 Mobileye 於 2010 年推出的 EyeQ2 實現。

第一代特斯拉 Autopilot 的背後則是支援 L2 級自動駕駛的 EyeQ3。順便說一句,Tesla Model S 是第一台能在終端進行深度神經網路推理的量產車型。當遍佈車身的十餘個各類感測器得到了關於路況的資訊時,晶片可以處理這部分資訊並據此作出相應的預警、刹車、變道等操作。

EyeQ 系列最新的版本 EyeQ4 能夠支持 L3 級別的自動駕駛,預計於 2018 年開始量產。12 月 16 日剛剛發佈的蔚來汽車裡就使用了 EyeQ4 的晶片,是第一款使用 EyeQ4 的量產車。

值得注意的是,計畫於 2020 年生產的 EyeQ5 將採用 7 納米的晶片製作工藝!要知道英特爾展示完 10 納米制作工藝,還未將其應用到任何 PC 晶片的實際生產中。

也就是說,最先使用到最先進製作工藝的晶片,是車載設備,而不是電腦。

其次,雲端伺服器。

更多的自然語言處理和語音辨識領域的演算法會優先部署在雲端。所有人工智慧演算法在進行推理(inference)之前都需要首先完成訓練(training)。

訓練過程大多都在伺服器端完成。

英特爾是這個領域的最大玩家,業務駕輕就熟。公司先後收購了 Altera 和 Nervana,彌補其資料中心產品線上的差距,以更好地參與到急速增長的人工智慧市場中去。

先來看看 Altera。

FPGA 業界的格局非常明晰,Xilinx(賽靈思)和 Altera 佔據了 80% 以上的市場份額。Xilinx 作為業界領頭羊,做了許多開發工具層面的工作。

FPGA 全名是「現場可程式設計閘陣列」(Field Programmable Gate Array),可以理解成一塊「哪裡需要哪裡搬」的金磚。

FPGA 和人工智慧相關的主要機會正是雲端伺服器的可配置運算。

和 GPU 一樣,FPGA 也是可供 CPU 大管家統籌調遣的廚子。要做好深度學習演算法這道菜,最理想的辦法就是幫管家多請幾個廚子。CPU 大管家可以請來的廚子有 GPU、FPGA、專用 CPU 和 ASIC。

雖然 GPU 這個廚子非常搶手,但是,「FPGA 加速神經網路」正在取代 GPU 熱潮的新方向。

GPU 本來是為了遊戲以及專業渲染而生的一類晶片,因為訓練深度學習模型和渲染圖像一樣都要進行大量矩陣運算,且 GPU 出貨量大、開發者社區成熟,所以被大量研究者用在了加速深度學習計算裡。

如果你關心神經網路計算加速話題,會發現「GPU 加速神經網路」的論文越來越少,而且更多圍繞緩存、記憶體等枝節問題。

換句話說,GPU 本身的結構已經沒有什麼新內容出現了。

不同於 CPU 和 GPU,FPGA 本身的性能還在飛速的攀升,如果 GPU 的結構沒有革命性的改變,那麼 FPGA 在通用計算加速方面全面超越 GPU 是指日可待的事情。

另一方面,FPGA 低延遲、高頻寬、支援各種精度資料的特點也讓它非常適合於深度學習相關的運算。

這些也是英特爾收購第二名 Altera 的主要原因。目前,公司主要通過幫助 Altera 開發工具,並且著重進行 CPU 與 FPGA 之間的打通和融合,來增強 Altera 的競爭力。

英特爾領投的國內嵌入式獨角獸地平線,就利用英特爾的 Xeon CPU + Arria 10 FPGA 開發了一系列產品,包括亮相 2017 年 CES 的自動駕駛輔助系統,也包括智慧城市系統。

系統利用 FPGA 不需要緩衝、存儲,能夠進行低延遲即時處理的特性,對 1080p 的視頻流進行即時處理,識別標定機動車、非機動車、行人等主體。

另外,很多國內的雲平臺廠商也都在搭建自己的計算加速平臺時引入了 FPGA,不過都還在比較初期的嘗試階段。

阿裡雲在今年年初給出了基於 Arria 10 的 FPGA 實例,又在 9 月給出了基於 Xilinx 的 FPGA 實例。

他們還做起了平臺生意——賣演算法。既然 FPGA 開發難度太高,那麼按需付費使用就也變成了一條靈活的通路。

再來說說 Nervana。

如果說 FPGA 是深度學習模型結構尚未穩定的時期,兼顧了性能與靈活度的選擇,那麼,ASIC 就是真正意義上的「為機器學習而生」。

ASIC 全稱「專用積體電路」(Application-specific integrated circuit),專指為了特定需求量身定制的晶片。

其實,最開始 GPU 也是為了少部分專業研究人員的流體模擬、3D 建模需求而出現的一種 ASIC,而 GPU 的出現也推動了更多應用場景的出現(比如高性能遊戲),二者交替進步,最終讓 GPU 成為一個獨立市場。

在機器學習上,GPU 可以出色完成任務。不過,絕大多數 GPU 也有很多其他用途,如專為處理圖形圖像、生產圖形輸出。

此外,GPU 還提供高精度浮點,用於高性能電腦在金融分析、類比和建模上的應用,而這些不需要深度學習演算法。所有這些功能都會佔用寶貴的晶片空間和能量。

因此,人們也開始思考是否需要從硬體層面對這一類計算的需求進行量體裁衣的滿足。

Nervana 就是這樣一家公司。

他們使用理論上速度最快的矩陣操作演算法,做出了速度極快的優化框架、又走向了 ASIC 晶片設計。理論上來說,Nervana 的方法能夠實現更高的性能,或者降低這些計算密集型的工作負荷成本。

英特爾需要另一種硬體架構,也非常擅長整合技術。通過這次收購,英特爾就能得到一個用於深度學習的具體產品和 IP,它們可被用在單獨加速器上,也能與英特爾未來的技術融合起來,生產出更具競爭力、創造性的產品。

2016 年加入英特爾大家庭之後,Nervana 終於在今年 10 月正式發佈了 Intel Nervana NNP 神經網路處理器。

「我們很高興能與 Facebook 密切合作,他們分享了自己的洞見,並幫助我們將新一代 AI 硬體投入市場。」CEO Brian Krzanich 在發佈後公開表示。這也是 Intel 非常少見的在開發新晶片階段就與其他公司進行合作。

至此,除了大型 GPU,對於每一種架構風格,英特爾都有一個或更多的處理器。

據英特爾人工智慧產品事業部業務拓展總經理 Fiaz Mohamed 透露,Intel 將會在今年年底收到合作夥伴對於 NNP 的性能回饋,並且獲得來自協力廠商的標杆指標資料。

研發、研發、還是研發

除了「買買買」,英特爾也加快了自己的研發步伐。

Intel 嘗試了用多 CPU 並行完成深度學習的方法。

2016 年 6 月,在德國法蘭克福舉辦的國際超級計算大會上,英特爾推出了一款 72 核 Xeon Phi 晶片。Xeon Phi,雖然和英特爾的伺服器 CPU 系列 Xeon 有著相似的名字,但其用途截然不同。

這款 Xeon Phi「Knights Landing」晶片是英特爾最強勁、最昂貴的晶片,瞄準機器學習以及超級電腦市場(兩個英偉達 GPU 頗受歡迎的市場)。

目前,公司已經將晶片用於幾個世界領先的超級電腦中。對中國禁售前,我國,也是世界上第二快的超級電腦,天河二號就使用了大量的 Xeon 和 Xeon Phi 晶片。

同年,他們也宣佈將會推出一個專用於深度學習版本的 Xeon Phi,名為 Knights Mill,雖然晶片仍在開發中,細節仍然不詳,但預計是會採用對低可變精度的支援從而獲得加速的方法。

現在,已有的、未針對機器學習作出特別開發的 Xeon Phi 加速器,已經被應用在國內外雲平臺上,例如美團雲就提供了基於 Xeon Phi 的雲服務 IaaS 產品,利用英特爾產品在高速存儲和底層優化方面的優勢,取得了高端 GPU 相當的水準。

值得一提的是,雖然英特爾十年前涉足獨立 GPU 的努力 Larrabee 以失敗告終,但英特爾的 Iris 集成顯卡仍然是世界上出貨量最大的 GPU,並且並未放棄進軍獨立 GPU 的野心。

上個月,英特爾不但和 AMD 宣佈了時隔 35 年的合作,AMD 的圖形處理負責人 Raja Koduri 也跳槽成為了英特爾新成立的核心與視覺計算組(Core and Visual Computing Group)的負責人。

英特爾在介紹 Raja 時,毫不掩飾地說,「Koduri 將致力於擴大英特爾在個人電腦市場集成顯卡領域的領先地位,同時為廣泛的計算領域提供高端獨立顯卡解決方案。」

深度學習演算法本身的發展仍然在其嬰兒階段,未來的基礎演算法領域的變革還會為這個行業帶來非常多的不確定性。

到時候 GPU 還會像現在一樣適合進行人工智慧演算法的計算加速嗎?ASIC 選擇的方向與演算法發展的方向一致嗎?FPGA 又需要多長時間調整適應新一代的演算法?

問題的答案仍然籠罩在未來的迷霧中。

最大程度保護了用戶的隱私。

如果說,Clips 主要出於隱私和功耗考慮選擇本地部署深度學習推理能力,那麼,大疆的 Spark 無人機主要考慮到網路環境和延遲因素。

無人機飛行環境具有多樣性,即時控制非常重要,因此本地算力必不可少。Spark 用 VPU 獲得了空間感知與情景感知能力,並且加入了手勢控制功能。

2016 年底,簽訂合作協定後,國內安防巨頭海康威視基於 Xeon 伺服器 + Myriad 2 的架構實現了可以進行全景監測、也可以進行細節抓拍、雲端和本地算力結合的攝像機系列。

今年 7 月,Movidius 還發佈了擁有 Myriad 2 核心的神經計算棒(ncs),可以用 1W 的功耗獲得最高 100 GFLOPs 的性能,長成了一個 U 盤的樣子,讓開發者可以方便地在自己的電腦上完成神經網路的驗證和調試。

如果開發者對終端算力的要求更高一些,對即時性更敏感一些,那麼他很可能在做自動駕駛研發。

翻翻英特爾的購物車,你又可以找到 Mobileye EyeQ 系列。

全世界累計超過 1500 萬輛車中安裝了 Mobileye 的系統,你甚至可以在淘寶上買到可以自行安裝在車裡的面向個人使用者版本的 ADAS 系統。

或許你不知道,身邊的富豪、通用、寶馬、現代等車輛裡的輔助駕駛功能大多通過 Mobileye 於 2010 年推出的 EyeQ2 實現。

第一代特斯拉 Autopilot 的背後則是支援 L2 級自動駕駛的 EyeQ3。順便說一句,Tesla Model S 是第一台能在終端進行深度神經網路推理的量產車型。當遍佈車身的十餘個各類感測器得到了關於路況的資訊時,晶片可以處理這部分資訊並據此作出相應的預警、刹車、變道等操作。

EyeQ 系列最新的版本 EyeQ4 能夠支持 L3 級別的自動駕駛,預計於 2018 年開始量產。12 月 16 日剛剛發佈的蔚來汽車裡就使用了 EyeQ4 的晶片,是第一款使用 EyeQ4 的量產車。

值得注意的是,計畫於 2020 年生產的 EyeQ5 將採用 7 納米的晶片製作工藝!要知道英特爾展示完 10 納米制作工藝,還未將其應用到任何 PC 晶片的實際生產中。

也就是說,最先使用到最先進製作工藝的晶片,是車載設備,而不是電腦。

其次,雲端伺服器。

更多的自然語言處理和語音辨識領域的演算法會優先部署在雲端。所有人工智慧演算法在進行推理(inference)之前都需要首先完成訓練(training)。

訓練過程大多都在伺服器端完成。

英特爾是這個領域的最大玩家,業務駕輕就熟。公司先後收購了 Altera 和 Nervana,彌補其資料中心產品線上的差距,以更好地參與到急速增長的人工智慧市場中去。

先來看看 Altera。

FPGA 業界的格局非常明晰,Xilinx(賽靈思)和 Altera 佔據了 80% 以上的市場份額。Xilinx 作為業界領頭羊,做了許多開發工具層面的工作。

FPGA 全名是「現場可程式設計閘陣列」(Field Programmable Gate Array),可以理解成一塊「哪裡需要哪裡搬」的金磚。

FPGA 和人工智慧相關的主要機會正是雲端伺服器的可配置運算。

和 GPU 一樣,FPGA 也是可供 CPU 大管家統籌調遣的廚子。要做好深度學習演算法這道菜,最理想的辦法就是幫管家多請幾個廚子。CPU 大管家可以請來的廚子有 GPU、FPGA、專用 CPU 和 ASIC。

雖然 GPU 這個廚子非常搶手,但是,「FPGA 加速神經網路」正在取代 GPU 熱潮的新方向。

GPU 本來是為了遊戲以及專業渲染而生的一類晶片,因為訓練深度學習模型和渲染圖像一樣都要進行大量矩陣運算,且 GPU 出貨量大、開發者社區成熟,所以被大量研究者用在了加速深度學習計算裡。

如果你關心神經網路計算加速話題,會發現「GPU 加速神經網路」的論文越來越少,而且更多圍繞緩存、記憶體等枝節問題。

換句話說,GPU 本身的結構已經沒有什麼新內容出現了。

不同於 CPU 和 GPU,FPGA 本身的性能還在飛速的攀升,如果 GPU 的結構沒有革命性的改變,那麼 FPGA 在通用計算加速方面全面超越 GPU 是指日可待的事情。

另一方面,FPGA 低延遲、高頻寬、支援各種精度資料的特點也讓它非常適合於深度學習相關的運算。

這些也是英特爾收購第二名 Altera 的主要原因。目前,公司主要通過幫助 Altera 開發工具,並且著重進行 CPU 與 FPGA 之間的打通和融合,來增強 Altera 的競爭力。

英特爾領投的國內嵌入式獨角獸地平線,就利用英特爾的 Xeon CPU + Arria 10 FPGA 開發了一系列產品,包括亮相 2017 年 CES 的自動駕駛輔助系統,也包括智慧城市系統。

系統利用 FPGA 不需要緩衝、存儲,能夠進行低延遲即時處理的特性,對 1080p 的視頻流進行即時處理,識別標定機動車、非機動車、行人等主體。

另外,很多國內的雲平臺廠商也都在搭建自己的計算加速平臺時引入了 FPGA,不過都還在比較初期的嘗試階段。

阿裡雲在今年年初給出了基於 Arria 10 的 FPGA 實例,又在 9 月給出了基於 Xilinx 的 FPGA 實例。

他們還做起了平臺生意——賣演算法。既然 FPGA 開發難度太高,那麼按需付費使用就也變成了一條靈活的通路。

再來說說 Nervana。

如果說 FPGA 是深度學習模型結構尚未穩定的時期,兼顧了性能與靈活度的選擇,那麼,ASIC 就是真正意義上的「為機器學習而生」。

ASIC 全稱「專用積體電路」(Application-specific integrated circuit),專指為了特定需求量身定制的晶片。

其實,最開始 GPU 也是為了少部分專業研究人員的流體模擬、3D 建模需求而出現的一種 ASIC,而 GPU 的出現也推動了更多應用場景的出現(比如高性能遊戲),二者交替進步,最終讓 GPU 成為一個獨立市場。

在機器學習上,GPU 可以出色完成任務。不過,絕大多數 GPU 也有很多其他用途,如專為處理圖形圖像、生產圖形輸出。

此外,GPU 還提供高精度浮點,用於高性能電腦在金融分析、類比和建模上的應用,而這些不需要深度學習演算法。所有這些功能都會佔用寶貴的晶片空間和能量。

因此,人們也開始思考是否需要從硬體層面對這一類計算的需求進行量體裁衣的滿足。

Nervana 就是這樣一家公司。

他們使用理論上速度最快的矩陣操作演算法,做出了速度極快的優化框架、又走向了 ASIC 晶片設計。理論上來說,Nervana 的方法能夠實現更高的性能,或者降低這些計算密集型的工作負荷成本。

英特爾需要另一種硬體架構,也非常擅長整合技術。通過這次收購,英特爾就能得到一個用於深度學習的具體產品和 IP,它們可被用在單獨加速器上,也能與英特爾未來的技術融合起來,生產出更具競爭力、創造性的產品。

2016 年加入英特爾大家庭之後,Nervana 終於在今年 10 月正式發佈了 Intel Nervana NNP 神經網路處理器。

「我們很高興能與 Facebook 密切合作,他們分享了自己的洞見,並幫助我們將新一代 AI 硬體投入市場。」CEO Brian Krzanich 在發佈後公開表示。這也是 Intel 非常少見的在開發新晶片階段就與其他公司進行合作。

至此,除了大型 GPU,對於每一種架構風格,英特爾都有一個或更多的處理器。

據英特爾人工智慧產品事業部業務拓展總經理 Fiaz Mohamed 透露,Intel 將會在今年年底收到合作夥伴對於 NNP 的性能回饋,並且獲得來自協力廠商的標杆指標資料。

研發、研發、還是研發

除了「買買買」,英特爾也加快了自己的研發步伐。

Intel 嘗試了用多 CPU 並行完成深度學習的方法。

2016 年 6 月,在德國法蘭克福舉辦的國際超級計算大會上,英特爾推出了一款 72 核 Xeon Phi 晶片。Xeon Phi,雖然和英特爾的伺服器 CPU 系列 Xeon 有著相似的名字,但其用途截然不同。

這款 Xeon Phi「Knights Landing」晶片是英特爾最強勁、最昂貴的晶片,瞄準機器學習以及超級電腦市場(兩個英偉達 GPU 頗受歡迎的市場)。

目前,公司已經將晶片用於幾個世界領先的超級電腦中。對中國禁售前,我國,也是世界上第二快的超級電腦,天河二號就使用了大量的 Xeon 和 Xeon Phi 晶片。

同年,他們也宣佈將會推出一個專用於深度學習版本的 Xeon Phi,名為 Knights Mill,雖然晶片仍在開發中,細節仍然不詳,但預計是會採用對低可變精度的支援從而獲得加速的方法。

現在,已有的、未針對機器學習作出特別開發的 Xeon Phi 加速器,已經被應用在國內外雲平臺上,例如美團雲就提供了基於 Xeon Phi 的雲服務 IaaS 產品,利用英特爾產品在高速存儲和底層優化方面的優勢,取得了高端 GPU 相當的水準。

值得一提的是,雖然英特爾十年前涉足獨立 GPU 的努力 Larrabee 以失敗告終,但英特爾的 Iris 集成顯卡仍然是世界上出貨量最大的 GPU,並且並未放棄進軍獨立 GPU 的野心。

上個月,英特爾不但和 AMD 宣佈了時隔 35 年的合作,AMD 的圖形處理負責人 Raja Koduri 也跳槽成為了英特爾新成立的核心與視覺計算組(Core and Visual Computing Group)的負責人。

英特爾在介紹 Raja 時,毫不掩飾地說,「Koduri 將致力於擴大英特爾在個人電腦市場集成顯卡領域的領先地位,同時為廣泛的計算領域提供高端獨立顯卡解決方案。」

深度學習演算法本身的發展仍然在其嬰兒階段,未來的基礎演算法領域的變革還會為這個行業帶來非常多的不確定性。

到時候 GPU 還會像現在一樣適合進行人工智慧演算法的計算加速嗎?ASIC 選擇的方向與演算法發展的方向一致嗎?FPGA 又需要多長時間調整適應新一代的演算法?

問題的答案仍然籠罩在未來的迷霧中。

Next Article
喜欢就按个赞吧!!!
点击关闭提示