華文網

蘋果為Siri引入機器學習技術 不再認錯主人

蘋果發新技術文章,稱為Siri引入機器學習技術,解決被非主人喚醒的問題。

日前,蘋果在自家機器學習刊物《Apple Machine Learning Journal》上發表最新一篇文章,主要是關於使用者在 iOS 設備上啟動“嘿Siri”功能時的人性化過程。

這篇文章似乎也意味著,未來 iOS 系統將配備更高級的 Siri 智慧私人助理,至少能夠利用機器學習特性來非常精確識別設備的主人。

“嘿Siri”功能在 iOS 8 的 iPhone 6 首次推出,如今在所有蘋果設備上,“嘿Siri”口令可啟動設備上的智慧私人助理。當然了,6s 之前仍需要先將設備插入電源才能使用,

而目前的新 iPhone 和 iPad,“嘿Siri”都已支持全天候時刻待命,無需亮屏也無需接通電源充電狀態下就能使喚。因此,口令啟動後用戶可跟進詢問或執行相關語音命令,例如詢問“今天天氣如何?”之類的問題。

在這篇機器學習期刊的新文章中,蘋果 Siri 團隊講述了引入“說話人識別系統(Speaker Recognition System)”的技術方法,聲稱為了給用戶創造更人性化的設備,自家團隊打造了“深度神經網路”,

而此舉將為 Siri 的反覆運算更新打下了基礎。簡單的說,蘋果基本上確認的事實是:未來的 iOS 系統版本中,機器學習技術將會被引入 Siri 智慧私人助理,用於識別設備所有者的聲音。

蘋果 Siri 團隊表示,最初他們選中“嘿Siri”這個短語,就是因為這是非常“自然”的措辭。但也正是因為如此,“嘿Siri”常常被不經意間啟動,因而帶來了不少麻煩。蘋果列舉了三種情況,包括:“當用戶說出類似的短語時”,“當其他用戶說‘嘿Siri’時”,

以及“當其用戶說類似的短語時。”根據 Siri 團隊的說法,最後一種場景下的“錯誤啟動最惱人”。

為了減少 Siri 被意外地、錯誤地啟動,蘋果引入了說話者識別研究領域的技術。重點在於,Siri 團隊稱他們關注的是“誰在說話”,而不是“說了什麼”。蘋果表示,

說話人識別技術的目標是確定語音發出者的身份。“我們感興趣的是‘誰在說話’,而不是語音辨識的問題,最終目的是確定‘所說的是什麼’。”

Siri 團隊表示,說話者識別技術目前所面臨的其他挑戰是,如何在混響(如:大房間)和嘈雜環境中獲得更高品質的表現。未來通過機器學習,Siri 語音助理將被訓練用於識別用戶在廣泛環境中飛聲音,如在車裡、廚房、咖啡店或類似的公共場所。Siri 還會學習識別各種情境下使用者發出的聲音狀態,

包括正常的聲音,很高、很亮的聲音,或者早上起床昏昏沉沉時的聲音等等,而不局限於最初重複錄入的幾聲“嘿Siri”。

最近,Siri 隱私漏洞的問題備受關注。因為該漏洞下,任何人都可以通過 Siri 來讀取設備主人的通知,只要按住 HOME 鍵或 iPhone X 上的側邊按鍵幾秒,呼出 Siri 後,喊它“幫我讀一下通知”,它就會直接讀出鎖屏上的隱藏消息內容,無論是同事還是家人,甚至是路人都能執行相同的操作,而且是在設備鎖屏的情況下。

很顯然,蘋果將機器學習技術用於 Siri 説明識別設備主人的方案,將能解決了 Siri 面臨的隱私問題。

歡迎關注威鋒網官方微信:威鋒網(weiphone_2007) 彙聚最新Apple動態,精選最熱科技資訊。

甚至是路人都能執行相同的操作,而且是在設備鎖屏的情況下。

很顯然,蘋果將機器學習技術用於 Siri 説明識別設備主人的方案,將能解決了 Siri 面臨的隱私問題。

歡迎關注威鋒網官方微信:威鋒網(weiphone_2007) 彙聚最新Apple動態,精選最熱科技資訊。