華文網

穀歌雲計算引擎發佈三項更新,現在NVIDIA K80和P100都支持了!

2017年9月21日,穀歌GCE(Google Compute Engine)發佈推出更快的GPU。首先,Google雲平臺(GCP)隨著NVIDIA P100 GPU在測試版上的推出而獲得另一個性能提升。其次,NVIDIA K80 GPU現在在GCE上可用。第三,宣佈在K80和P100 GPU上引入持續使用的折扣。

雲GPU可以加速企業的工作負載,

包括機器學習訓練和推理,如地球物理資料處理,模擬,地震分析,分子建模,基因組學和更多的高性能計算用例。

NVIDIA的特斯拉P100是目前GPU領域的最先進技術。基於Pascal GPU架構,你可以通過減少實例來增加輸送量,同時節省資金。與K80相比,P100 GPU可以將工作負載加快10倍。

與傳統解決方案相比,雲GPU提供了更好的靈活性,性能和成本節約的組合:

靈活性:Google的自訂虛擬機器和增量雲GPU提供極大的靈活性。自訂CPU,記憶體,磁片和GPU配置,以最好地滿足需求。

快速性能:雲端GPU通過直通模式提供裸機性能。每個VM最多可以連接4個P100或8個K80(我們提供最多4個K80板,每個板上有2個GPU)。對於那些尋求更高磁片性能的使用者,可選擇將最多3TB的本地SSD附加到任何GPU虛擬機器。

低成本:使用Cloud GPU,

可以獲得與GCP其餘資源相同的每分鐘計費和持續使用折扣。只為你需要的資源付費!

雲集成:雲GPU可用於堆疊的所有級別。對於基礎設施,計算引擎和容器引擎(僅在Alpha群集上支持)允許使用VM或容器運行GPU工作負載。對於機器學習,雲機器學習可以選擇配置為利用GPU,以減少使用TensorFlow大規模培訓你的模型所需的時間。

同時,現在可以在全球四個地區部署NVIDIA Tesla P100和K80 GPU。我們所有的GPU都可以利用持續使用折扣,當你使用它們來運行持續的工作負載時,可以自動降低虛擬機器的價格(高達30%)。不需要鎖定或預付最低費用承諾來利用這些折扣。

加快機器學習工作量

自推出GPU以來,我們已經看到用戶可以從額外的計算中獲益,從而加速從基因組學和計算金融到訓練和機器學習模型推理等工作。我們的客戶之一,Shazam是GCP早期採用GPU來為音樂識別服務提供支援。

Shazam網站可靠性工程負責人Ben Belchak表示,“對於某些任務,NVIDIA GPU是傳統CPU的成本效益和高性能替代品。他們與Shazam的核心音樂識別工作非常相符,其中我們將用戶錄製的音訊片段與我們4000多萬首歌曲的目錄相匹配。

我們通過拍攝每首歌曲的音訊簽名,將其編譯成自訂資料庫格式並將其載入到GPU記憶體中。每當使用者Shazams一首歌曲,我們的演算法使用GPU搜索該資料庫,直到找到一個匹配。每天成功超過2000萬次。”

今天GCP又邁出了一步,成為任何硬體加速工作負載的最佳選擇。隨著NVIDIA P100 GPU的增加,穀歌的主要重點是幫助你將新的用例帶入生活。