您的位置:首頁>科技>正文

穀歌剛發佈了一款 AI 相機,沒想到埃隆·馬斯克又開懟了!

埃隆·馬斯克(Elon Musk)噴人工智慧貌似已經成為日常, 這不, 穀歌剛剛發佈的一款 AI 相機又成了“靶子”。

這款 AI 相機是Google在其剛結束的秋季發佈會上發佈的, 號稱“抓拍神器”的Clips——一個小巧的 AI 相機。 這款相機搭載了穀歌機器學習(Machine Learning)技術, 可通過 AI 分析和學習來辨別捕捉畫面中的難忘瞬間, 並且一一保存。

Clips可以利用人工智慧判斷用戶可能感興趣的人臉, 並在這些人臉出現時自動拍照。 因為外形小巧, 這款設備可以被放置在很多隱蔽的場景中, 而且拍照過程中不會閃光, 達到“不經意間拍攝”的效果, 非常隱蔽。

馬斯克當天發表了一條推文,

引用科技媒體 the Verge 發佈的由 Google Clips 拍攝的視頻, 並諷刺其公然侵犯隱私:他們甚至不屑於讓自己“看起來”是無辜的。

馬斯克發推“嘲諷”Google Clips

穀歌並未對馬斯克的評論做出回應。 但該公司發言人表示, Clips“是一款相機, 目的是主動捕捉更多對用戶重要的人的更多瞬間——7秒的片段。

正是被馬斯克“懟”的這款相機, Google Clips只是本次穀歌一口氣發佈的多款產品(穀歌Pixel 2/XL 智慧手機、Pixelbook 筆記本、Google Home Mini&Max 智能音箱、Pixel Buds 無線耳機、Google Clips )其中之一。

穀歌一直善於巧用 AI 解決一些其他廠商訴諸硬體才能解決的問題。 本次發佈會上的 Dual-Pixel 技術, 再次展示出穀歌的精巧心思。 不過在穀歌首席執行官Sundar Pichai 看來, 本次發佈會最後出場的 Clips 卻最能體現穀歌的硬體 AI 之道。

來重新認識一下Google Clips

在穀歌首席執行官Sundar Pichai掌舵下的穀歌悄然發生了轉變。 Google I/O 2017 大會上, 穀歌明確宣告將戰略重心由“Mobile First”轉為“AI First”。

穀歌首席執行官Sundar Pichai

本次新品發佈會, 穀歌不僅強調AI First, 並首次提出了“AI+軟體+硬體”的三位一體戰略。 隨著以Pixel 手機為核心的系列硬體產品發佈, 加上其在人工智慧技術及軟體產品上的突出優勢, 穀歌在“軟體+硬體”上的全面人工智慧生態已經初步顯現。

但是, Pichai想要的真正人工智慧, 不僅僅是將人工智慧的功能整合進每一款產品中, 而是通過那些人工智慧技術的產品來激發更大的市場。

Clips是穀歌想要做更多事情的一個縮影。

它是一款只有5釐米高、60克重的方形相機, 售價249美元。 非常小, 也非常輕便。 全機上下只有一個快門按鈕、一個鏡頭、一個拍攝時會亮起的LED燈, 套上自帶的塑膠外殼後可以立在、掛在、勾在家庭裡的任何一個角落。

通過扭動鏡頭打開相機後, 它能以15幀每秒的頻率錄製拍攝, 擁有一個1200萬圖元的感測器與130度的廣角鏡頭, 能夠自動對焦, 有16GB的存儲空間, 電池續航時間為3小時——不過, 沒有內置麥克風。

用戶可以選擇在手機APP上將這些段視訊短片、匯出為視頻、照片、GIF、或是動態照片

它以新的方式重新定義攝影, 內部人工智慧引擎會引導相機尋找它感覺有趣的東西:微笑、你關心的人、追逐尾巴的狗, 並自動捕捉這一刻。 隨著時間的推移, 這款相機會更加智慧化。

Pichai在接受The Verge採訪時稱, “之所用一款軟體的名字來命名硬體, 是經過了慎重思考之後的決定。 我們給它取名Clips的主要原因是它擁有讓人興奮的機器學習, 並且幕後更有電腦視覺提供支援。 ”

對於穀歌來說, 硬體不僅只是為了賣產品, 同時也在不斷學習如何在硬體中更好的集成 AI。Pichai說:“如果你不能將這些東西集成到一起,就很難推動未來的發展。”從根本上說,Pichai對每一款硬體產品都會進行“如何通過 AI 進行改善”這樣的思考。他不想讓 AI 成為一種額外單獨的功能,而是希望 AI 從根本上改變每一台設備的本質。

Google Clips背後的硬技術:AI與機器學習

穀歌Clips能否成功,取決於它能否兌現穀歌的兩大承諾:它能否拍攝穩定、對焦準確的照片?是否足夠智慧,能在儘量不需要使用者干預的情況下處理照片任務?

Google Clips AI相機

或許,你也可以將Clips的思維過程進行這樣梳理:1、它睜開眼睛,看著眼前的世界;2、接著處理一系列問題:這個世界裡有臉嗎?是我認識的臉嗎?這張臉上眼睛是睜開的嗎?是微笑著的嗎?這裡的光線足夠充足嗎?這個鏡頭模糊嗎?...最終確保照出來的片段是好的、值得拍攝的。

Google Clips產品主管Juston Payne

谷歌Clips產品主管Juston Payne稱,Clips的“智慧”內置在設備中,所以不像Google Home那樣完全依賴於連接到雲端,Clips完全在本地執行任務,“它是以攝像頭為AI引擎開始的”。

Clips採用了機器學習技術,這意味著,事先它需要合適的訓練資料(可能在你與孩子玩耍時將其放在客廳中),運行其預先訓練的機器學習演算法來找到最佳的學習演算法,然後自動生成剪輯並為你挑選最佳圖像。

Google Clips 在手機APP介面

然而,每一個AI模型都需要經過訓練,Clips使用的模型也不例外。為了説明Clips找到合適的訓練資料,穀歌的Clips團隊與一大批視頻編輯者與圖像評估團隊合作,從穀歌擁有的海量視頻中(包括旗下視頻網站YouTube)通過人工標記、評分視頻的方式為Clips提供訓練素材。

Payne稱,世界上沒有任何一套機器訓練資料集裡有“這有一個嬰兒在地板上爬的短視頻,這是他父母想要保存的片段”的帶標記資料,而Clips的“智慧”也絕不是像辨別貓狗這樣簡單。

隨著時間的推移,穀歌Clips會“認識”使用者的家人和朋友。例如,用戶親自動手按下快門給某人拍照,會給穀歌Clips提個醒:這個人對我很重要。未來,穀歌計畫在更多的終端設備上拓展AI功能,以支持更多的應用場景。

穀歌發佈會上最不起眼的硬體,卻住著一顆AI芯

其實作為一款消費級產品,Google Clips 主要適用於家庭場景,它在功能上的獨到之處是利用機器學習對場景中的人物、寵物、環境等畫面進行識別和分析,從而讓攝像頭發現適合拍攝的畫面時進行自主拍攝;這個過程的實現,不僅需要依賴穀歌的AI技術,還需要機身內部搭載的一塊 AI 晶片。

Movidius Myriad 2 VPU

這塊 AI 晶片,就是英特爾旗下 Movidius 推出一款名為 Myriad 2 的 VPU(Vision Processing Unit,視覺處理單元)。

Myriad 2 發佈於 2014 年(這時候 Movidisus 還沒有被收購),作為一款視覺處理晶片,它的功能就是專門用於影像處理;其特點在於功耗很低,能夠在半瓦的功耗下提供浮點運算功能,使用 20 納米的工藝進行製造。

實際上,在 Myriad 2 之前,Movidius 已經推出了 Myriad 1,它被穀歌用於 Project Tango 中,作為智慧手機和平板電腦 3D 感應技術方案的關鍵元件。作為繼承之作,Myriad 2 的性能是 Myriad 1 代的 20 倍;與此同時,Myriad 2 的體積也非常小,可以用在紐扣大小的照相機上。

當然,除了傳統的影像處理能力外,Myriad 2最重要的就是AI能力。對於Clips來說,也就是相機的智慧理解能力。除了晶片本身,Movidius還設計一系列的補充演算法與SDK,使得Myriad 2支持3D建模和掃描、影像搜索、室內導航、以及手勢輸入、臉部識別、實物探測等。

縱觀整場發佈會,最後一個出場的穀歌Clips相機,其實無論畫質、清晰度還是便攜性,谷歌Clips智能相機都不算太犀利,但是它卻是首款由AI來決定工作與否的消費級相機產品,也是穀歌“AI First”戰略的一個重要的小嘗試。

同時也在不斷學習如何在硬體中更好的集成 AI。Pichai說:“如果你不能將這些東西集成到一起,就很難推動未來的發展。”從根本上說,Pichai對每一款硬體產品都會進行“如何通過 AI 進行改善”這樣的思考。他不想讓 AI 成為一種額外單獨的功能,而是希望 AI 從根本上改變每一台設備的本質。

Google Clips背後的硬技術:AI與機器學習

穀歌Clips能否成功,取決於它能否兌現穀歌的兩大承諾:它能否拍攝穩定、對焦準確的照片?是否足夠智慧,能在儘量不需要使用者干預的情況下處理照片任務?

Google Clips AI相機

或許,你也可以將Clips的思維過程進行這樣梳理:1、它睜開眼睛,看著眼前的世界;2、接著處理一系列問題:這個世界裡有臉嗎?是我認識的臉嗎?這張臉上眼睛是睜開的嗎?是微笑著的嗎?這裡的光線足夠充足嗎?這個鏡頭模糊嗎?...最終確保照出來的片段是好的、值得拍攝的。

Google Clips產品主管Juston Payne

谷歌Clips產品主管Juston Payne稱,Clips的“智慧”內置在設備中,所以不像Google Home那樣完全依賴於連接到雲端,Clips完全在本地執行任務,“它是以攝像頭為AI引擎開始的”。

Clips採用了機器學習技術,這意味著,事先它需要合適的訓練資料(可能在你與孩子玩耍時將其放在客廳中),運行其預先訓練的機器學習演算法來找到最佳的學習演算法,然後自動生成剪輯並為你挑選最佳圖像。

Google Clips 在手機APP介面

然而,每一個AI模型都需要經過訓練,Clips使用的模型也不例外。為了説明Clips找到合適的訓練資料,穀歌的Clips團隊與一大批視頻編輯者與圖像評估團隊合作,從穀歌擁有的海量視頻中(包括旗下視頻網站YouTube)通過人工標記、評分視頻的方式為Clips提供訓練素材。

Payne稱,世界上沒有任何一套機器訓練資料集裡有“這有一個嬰兒在地板上爬的短視頻,這是他父母想要保存的片段”的帶標記資料,而Clips的“智慧”也絕不是像辨別貓狗這樣簡單。

隨著時間的推移,穀歌Clips會“認識”使用者的家人和朋友。例如,用戶親自動手按下快門給某人拍照,會給穀歌Clips提個醒:這個人對我很重要。未來,穀歌計畫在更多的終端設備上拓展AI功能,以支持更多的應用場景。

穀歌發佈會上最不起眼的硬體,卻住著一顆AI芯

其實作為一款消費級產品,Google Clips 主要適用於家庭場景,它在功能上的獨到之處是利用機器學習對場景中的人物、寵物、環境等畫面進行識別和分析,從而讓攝像頭發現適合拍攝的畫面時進行自主拍攝;這個過程的實現,不僅需要依賴穀歌的AI技術,還需要機身內部搭載的一塊 AI 晶片。

Movidius Myriad 2 VPU

這塊 AI 晶片,就是英特爾旗下 Movidius 推出一款名為 Myriad 2 的 VPU(Vision Processing Unit,視覺處理單元)。

Myriad 2 發佈於 2014 年(這時候 Movidisus 還沒有被收購),作為一款視覺處理晶片,它的功能就是專門用於影像處理;其特點在於功耗很低,能夠在半瓦的功耗下提供浮點運算功能,使用 20 納米的工藝進行製造。

實際上,在 Myriad 2 之前,Movidius 已經推出了 Myriad 1,它被穀歌用於 Project Tango 中,作為智慧手機和平板電腦 3D 感應技術方案的關鍵元件。作為繼承之作,Myriad 2 的性能是 Myriad 1 代的 20 倍;與此同時,Myriad 2 的體積也非常小,可以用在紐扣大小的照相機上。

當然,除了傳統的影像處理能力外,Myriad 2最重要的就是AI能力。對於Clips來說,也就是相機的智慧理解能力。除了晶片本身,Movidius還設計一系列的補充演算法與SDK,使得Myriad 2支持3D建模和掃描、影像搜索、室內導航、以及手勢輸入、臉部識別、實物探測等。

縱觀整場發佈會,最後一個出場的穀歌Clips相機,其實無論畫質、清晰度還是便攜性,谷歌Clips智能相機都不算太犀利,但是它卻是首款由AI來決定工作與否的消費級相機產品,也是穀歌“AI First”戰略的一個重要的小嘗試。

Next Article
喜欢就按个赞吧!!!
点击关闭提示