華文網

曠視科技Face++首席科學家孫劍:從3.15看科普的重要性

【新智元獨家】

作者:孫劍

【新智元導讀】今天,一年一度的“315” 落下帷幕,伴隨著人工智慧的火熱,相關技術應用也在這場以“打假”、“維護消費者權益”為名的晚會上被點名。其中最受關注的便是——人臉識別。

曠視科技Face++首席科學家孫劍為此撰文《從今年3.15看科普的重要性》。

孫劍

【孫劍】每年3.15後都會產生一波波“新聞漣漪”,而今年“人工智慧”有幸被打了假。

那麼用這麼一次演示就打了假(宣稱現在的人臉認證技術不可靠),違反了什麼邏輯和科學慣例了呢?

1)啟用了“吃土豆能治高血壓,我家隔壁老王自從天天吃土豆,血壓就下來了”的以點蓋面的中醫邏輯。目前接入人臉識別和活體檢測的商業用戶非常多,隨便選一家不知道誰家的商業產品來打假,嚴肅的質疑了技術的可行性和從業者的態度,一棒子打死人工智慧。

其實3.15演示的只是對手機端活體檢測的破解。實際完善的系統會包含多道安全防護。目前大多健全的商業平臺都能杜絕這類“上古時代”的攻擊。

以曠視科技Face++為代表的技術提供商們都提供了高安全的多道防護手段(例如雲端活體技術)。

2)用“一次攻破,你就是不安全的”誤導了什麼是“安全”這個概念。”安全“是相對於“危險”而言的,沒有絕對100%的安全。評測一個技術安全與否,需要在多個典型系統上進行多次重複實驗,進而得出一個統計意義上的結論。這說明我們國家的科普事業(這次是概率論和統計方法的基本概念)依舊路漫漫其修遠兮。

我們的科學家們在用高科技造福大眾的同時,還要關注一下我們的科普進展。

在這個國家經濟轉型的關鍵時期,科技創新、特別是當下的人工智慧技術是我們持續發展的核心。希望大家能夠給予新技術足夠多的重視和包容,讓其儘快能夠成為政府工作報告中所希望的那樣,為產業升級提供第一推動力。

建長城難,毀長城易。

文/孫劍 本文為新智元獨家稿件,未經授權請勿轉發。

下文是曠視(Face++)就人臉識別技術的安全性問題為大家進行以下聲明和解答:

2017年3·15晚會上,央視在資訊安全問題中對人臉識別技術不過關的問題進行了報導。作為一家對用戶和市場負責的人臉識別技術和解決方案提供商,曠視(Face++)第一時間就人臉識別技術的安全性問題為大家進行以下聲明和解答。

首先,人臉識別技術應用在金融、生活服務等行業場景裡,一直都是給安全做加法,與傳統的密碼結合,提供更加可靠的安全服務。

其次,3.15 上所展現的攻擊方法實際原理是通過照片類比及螢幕翻拍來實現的,曠視可以有效杜絕這類攻擊。

的確,任何一種安全手段都不是獨立的,因此在實際應用中,曠視(Face++)與合作夥伴在給使用者提供的服務中,一切從安全與便捷兩個角度出發,從沒有允許過任何一個場景是簡單通過模擬人臉即可通過的。

在與不法分子的鬥智鬥勇中,技術一直都是需要時時刻刻保持他高一尺我高一丈的心態,而曠視在人臉識別技術上線後也第一時間組建了最為強大的防攻擊組,而市面上任何最新的攻擊,我們都會第一時間應對並解決,請廣大用戶放心,在給用戶安全體驗的承諾上,我們從不放鬆。

大家不知道的是,對於人臉識別還有更多的攻擊手段。在過去的一年裡,曠視日均攔截非法交易數百筆,在曠視的黑名單裡,不限於央視所演示形式的攻擊。基於抵禦經驗和日常測試,曠視將對活體檢測系統進行的攻擊大致分為三大類:

1. 換臉攻擊。通過PS或者圖像編輯軟體在原有人員的照片/視頻上貼一張新的臉,這種屬於初級攻擊手段,一般的動作檢測就可以防住。

2. 螢幕翻拍攻擊。不管是3·15裡面展示的那種用手機對著一個App模擬出來的假臉還是直接用Facetime讓本人非現場驗證,最終都是一個手機拍攝另一個手機螢幕(或顯示器螢幕),而螢幕翻拍在底層視覺特徵、環境圖像特徵等方面均與真人實拍有顯著差異。對此,曠視研發了專門的基於深度學習的螢幕翻拍綜合檢查技術(包括顯示幕紋路檢測、檢查人臉局部細節是否自然等),從而實現了對此類攻擊的隔離。如圖:

螢幕翻拍攻擊隔離

3. 面具及模型攻擊。曠視曾經做過嚴格的產品級測試,用一張臉模型搭配不同的眼睛,嘴,鼻子來攻擊,結果是針對一般面具攻擊我們可以做到百分之98以上的隔離。而3D列印以及電影中出現的實際人皮面具,這種級別的犯罪,相信也會引入刑偵手段加以防範。

從沒有允許過任何一個場景是簡單通過模擬人臉即可通過的。

在與不法分子的鬥智鬥勇中,技術一直都是需要時時刻刻保持他高一尺我高一丈的心態,而曠視在人臉識別技術上線後也第一時間組建了最為強大的防攻擊組,而市面上任何最新的攻擊,我們都會第一時間應對並解決,請廣大用戶放心,在給用戶安全體驗的承諾上,我們從不放鬆。

大家不知道的是,對於人臉識別還有更多的攻擊手段。在過去的一年裡,曠視日均攔截非法交易數百筆,在曠視的黑名單裡,不限於央視所演示形式的攻擊。基於抵禦經驗和日常測試,曠視將對活體檢測系統進行的攻擊大致分為三大類:

1. 換臉攻擊。通過PS或者圖像編輯軟體在原有人員的照片/視頻上貼一張新的臉,這種屬於初級攻擊手段,一般的動作檢測就可以防住。

2. 螢幕翻拍攻擊。不管是3·15裡面展示的那種用手機對著一個App模擬出來的假臉還是直接用Facetime讓本人非現場驗證,最終都是一個手機拍攝另一個手機螢幕(或顯示器螢幕),而螢幕翻拍在底層視覺特徵、環境圖像特徵等方面均與真人實拍有顯著差異。對此,曠視研發了專門的基於深度學習的螢幕翻拍綜合檢查技術(包括顯示幕紋路檢測、檢查人臉局部細節是否自然等),從而實現了對此類攻擊的隔離。如圖:

螢幕翻拍攻擊隔離

3. 面具及模型攻擊。曠視曾經做過嚴格的產品級測試,用一張臉模型搭配不同的眼睛,嘴,鼻子來攻擊,結果是針對一般面具攻擊我們可以做到百分之98以上的隔離。而3D列印以及電影中出現的實際人皮面具,這種級別的犯罪,相信也會引入刑偵手段加以防範。