您的位置:首頁>正文

這一演講暴露人臉識別的最大威脅:人體生物密碼一旦洩露極不安全且無法更換!

近日, 知名網友、科普作家@奧卡姆剃刀的一篇博文引發熱議:

他認為, 現在的人體生物密碼都具有唯一性和不可變更性。 傳統的字母數位組合密碼可以更換,

而人體生物密碼一旦洩露就是終生洩露!

無獨有偶, 早在9月15日, 2017年網路安全博覽會暨網路安全成就展新聞發佈會上, 眾人科技創始人、上海市資訊安全行業協會會長談劍峰就曾表示, 目前所有互聯網認證技術中, 生物識別認證是最不安全的。

談劍峰稱, 有人認為, 生物特徵在自己身上具有唯一性, 因此, 生物識別認證技術應該是安全的。 但很多人沒有想到, 這種唯一性也意味著, 生物認證資訊一旦“丟失”就不可再生。 “很多人不在乎開機密碼, 用指紋、用刷臉(開機), 但丟了一次就永遠都沒有了。 ”

而前段時間, 人臉識別就火了起來, 人類進入了“刷臉”時代, 人臉識別真的靠譜嗎?庫叔今天就來跟你聊一聊。

1

現在的人臉識別挺強大

世界上第一個做自動人臉識別演算法的是個英國人。

他受一家政府機構的委託來開展研究。 當時的方法比較落後, 是半自動的:手工在圖像上標定人臉的關鍵點, 然後測量兩眼之間的距離、嘴唇的厚度, 以此作為特徵來進行人臉的比對。

之後, 有很多重大技術突破, 最關鍵的是2001年AdaBoost檢測技術, 可以快速地從照片、圖片中把人臉框出來。

十多年前, 人臉識別技術小火了一把。 當時, 比爾.蓋茨非常看好生物特徵識別技術的現實應用與未來發展前景。

早在2001年, 他就對媒體公開了自家的人臉識別技術。 那是一個完整的、全自動的、即時的人臉識別系統。 比爾.蓋茨親自上陣體驗人臉識別, 當時的技術還需要他本人主動“配合”,

看著攝像頭不能動作過大, 因為誇張的表情可能會造成識別錯誤。

最近幾年, 科技進步、強勁的社會需求、大佬們的推波助瀾以及資本熱捧等因素, 進一步推動了人臉識別發展。 尤其是對深度學習的研究與應用, 使得人臉識別和人工智慧的核心技術得到了極大的提升。 圖像硬體的發展也給人臉識別提供了很好的圖像基礎。

現在的人臉識別技術發展到什麼程度了呢?

先來看目前電腦處理人臉識別的流程步驟:

首先, 通過人臉檢測, 對五官進行一些關鍵點的定位;

然後, 提取電腦能夠識別的人臉特徵;

最後, 進行一個相似度比對, 得到人臉識別的結果。

大家用智慧手機或者數碼相機拍照的時候就會發現,

取景框內, 我們的面部區域會出現一個綠色小框, 目的就是通過調整曝光等各種參數, 使面部的圖像更加清晰。

這裡用到的其實就是人臉檢測的技術。

到目前為止, 即使外部有較大干擾, 人臉檢測都能比較準確地檢測出來。 像下面這張奧斯卡頒獎現場的照片, 裡面有數十人, 電腦基本上在幾毫秒、或者十幾毫秒的時間裡, 就能把這些人臉全部檢測出來。

2

仍不能讓人完全放心

強大的人臉識別技術是不是能讓人完全放心了呢?

很遺憾, 並不是。

即便是人臉識別中較高端的一些應用, 比如說刷臉支付, 現在也還存在著一些技術和安全問題。

如果你相信馬雲本人會授權他自己的帳戶用刷臉來轉帳,

那就太天真了!

人臉識別還有一些技術難點尚未克服:

首先是光照問題。

比如說, 在全黑的條件下, 連圖像都采不到, 怎麼能進行人臉識別?

像在下圖左邊這樣的條件下, 一個極端的光照, 以我們現在的演算法, 還不能對它進行有效的、正確的比對。

2001年給比爾·蓋茨做人臉識別演示時, 精心佈置了燈光。但如果每次做人臉識別的時候,都要用閃光燈閃一下,用戶體驗會非常差,不太可行。

後來也有了其他方法,比如用近紅外主動光源。

這樣的改進,使得人臉識別率得到了極大的提升。但這個問題目前還沒能得到完全解決。

二是包括姿態、表情、還有配飾。

戴個墨鏡,或頭髮的遮擋,還有化妝等,都很容易使人臉識別出現誤差。

很多人會問:“我到韓國去整個容,還能通過人臉識別進海關嗎?”

實際上,如果單純靠人臉識別的結果,你很可能會被當成不同的人。

還有人問:“雙胞胎,長得一模一樣,那人臉識別能區分出來嗎?”

答案是:“NO!”

因為單純靠長相來識別,雙胞胎(同卵)對系統來說其實就是同一張人臉。

此外,在很多情況下,人臉的姿態和表情是不受控制的。這也會影響人臉識別的結果。

那麼,如何去解決這個問題?

人臉識別技術為此研發了三維可形變的模型。具體來說,就是把輸入的圖像往一個內部的、三維模型上面貼上去,然後,根據關鍵點的位置用三維模型把這個姿態給它轉過來。轉到正面之後,我們再把這個表情歸一化,讓它變成一個中性的表情,最後就得到一個輸出。

這樣就能夠提高在大姿態、大的表情條件下的人臉識別的準確率。

還有就是年齡的跨度,面容變化會非常大,這也是一個問題。

其實,包括人臉識別在內,各種各樣的生物特徵識別(指紋、虹膜、眼睛等等)都存在著一些問題。沒有哪一個演算法,哪一個人工智慧技術能夠保證百分之百地準確識別。

3

這是最大的威脅!

除了追求高準確率之外,還有一個很重要的問題,安全性。

所以,在人臉識別的具體應用中,主要的問題從“識別人的身份”轉變成了“判斷在系統面前的臉是不是一個真人”,即“人臉防偽”。

在媒體報導上,經常能夠看到“人臉識別很危險,人臉識別不可靠,拿一張假臉也可以很容易攻破人臉識別系統”等說法。

這種狀況確實存在,一般通過建立一個三維模型或者是一些表情的嫁接進行欺騙。

目前,人臉識別的運用,主要是用於身份認證。假設我把張三的照片放在系統前,系統能不能識別出張三?

對付照片和列印還是比較簡單的,我們可以採取人機交互的方法。比如可以下指令,讓進行驗證的人眨個眼睛,看你是不是眨了眼睛。或者令其張張嘴,搖搖頭之類的。

在這個領域,“魔高一尺,道高一丈”。

前段時間,網上流傳一個視頻,提醒大家不能把自拍隨便放在網上,說是有些不法分子會拿著你的自拍生成一個三維模型,能夠順利地騙過支付寶登陸。

即使不能拿照片來應付,我把你的視頻錄下來,既有人臉又有動作,一定程度上,也能破解人臉識別。

此外,面具有時候也能輕易騙過機器。在網上就可以買到這樣仿人皮的人臉。

除人臉之外,指紋這個假體更加普遍。

在百度上隨便搜一下,就能搜出各種各樣的仿製指紋方法。它可以代打卡!就可以不用本人去上班了。

解決“假體攻擊”的一個思路是用多光譜的方法,如紫外、近紅外、熱紅外成像,我們肉眼不可見,但是它可能能分辨出真人和假體的區別,這樣的技術還在研發。

人臉識別目前還存在著很多的技術問題,但是,根據招商銀行的統計,人工核驗的錯誤率大概是5%,而機器自動識別的錯誤率大概在千分之一到萬分之一之間,已經遠遠超過了人工識別。

還有一個案例是深圳羅湖海關抓有案底的“水客”。一般條件下,人能夠識別的面孔大概只有幾千張,對不熟悉的人,很難識別出來。有的人能識別出的甚至還不到一千張臉,遠遠低於這個平均水準。然而,人臉識別在三天內就成功識別出了200多個“水客”。

但是,這樣的動態人臉監控,以我們的現有技術還達不到完全實用的地步,準確率大概只能達到40—50%。

造成準確率不高的原因有很多:

其一,人不可能配合安防相機進行人臉識別;

其二,人的運動也會造成畫面模糊;

其三,一些姿態的變化、人與人之間的遮擋,也會造成面部拍攝不清晰的情況。

這種現狀指出了人臉識別在未來需要改進的方向——在密密麻麻的人群上有一個攝像機,它能夠自動地從畫面中識別出每個人的身份。

人臉識別也有不如人的地方——它“只看臉”,不會關注髮型、高矮胖瘦等外部資訊,而人工則會綜合識別這些資訊。

我們會盡可能多的為人臉識別提供更多資訊。比如我們熟悉的指紋、虹膜,像那些大片裡面呈現的掌紋、掌靜脈、步態、簽名、指靜脈等。

把這麼多不同的多種的生物特徵結合起來,就有可能提升它的準確性與安全性。

最近大家關注的銀行“刷臉”系統,也不光是看臉,還要結合其他資訊的校驗,輸入手機號、取款金額、密碼等。這其實是給人臉識別加了一道保障。

4

未來值得期待

人臉識別技術還有一些其它的應用,比如可以用來進行情感分析、情感計算。

比如,從傅園慧的表情中,系統可以自動分析出她當時的驚訝或者是愉快,這兩種心情占了主要的成分。

另外,系統也可以根據人臉表情的變化,從一段你的視頻序列中分析出你當時某一個場景下心情的變化。這個可以運用在教育及涉及類似情緒分析的一些領域中。

還有針對人臉屬性的分析。人臉分析除了可以用來進行身份識別,還可以對他的性別、年齡和顏值進行一個估計。

比如上面這兩個哥們,真實年齡只差了一歲,但是人臉識別系統識別出來差了將近有30歲。仔細觀察一下,大家可以發現,這個演算法把他們兩個性別都識別錯了,有可能是皮膚P得太過分的原因。這種技術未來可以運用在對潛在客戶的分析以及定點廣告的投放等等。

人臉識別的未來在哪?

這得看推動其發展的大資料和深度學習怎麼發展了。

第一個是大資料。這個模型,它要能概括我們大多數場景下能夠看到的一些資料。

第二個是深度學習。它是人臉識別的核心。

深度學習也有賴於大資料的基礎,如果沒有大資料,深度學習就毫無作用。人在學習一個新概念的時候,並沒有用大資料。比如說,我們是在中國長大的,過去從來沒見過榴槤這樣一種熱帶水果。我只需要看見一次,我今後就認識它了,我並不需要像機器一樣拿一大堆榴槤來看來看去。這就是人的認知跟機器智慧的很大區別。

人臉識別技術的提高也需要跨界合作,需要做腦科學的,需要做生物、物理、化學的,需要做人工智慧的,一起來合作探討。

總而言之,技術的進步和應用需求使我們進入了“刷臉”的時代。想要再上一個臺階,需要我們在科學與技術上進一步探索與突破。除此之外,由於人臉識別的應用還存在著一些安全和隱私的問題,這就需要制定相關的一些標準和法律、法規,以規避可能存在的風險。

讓我們努力,讓我們期待。

題圖來源:視覺中國 欄目主編:程沛 圖片編輯:曹立媛 精心佈置了燈光。但如果每次做人臉識別的時候,都要用閃光燈閃一下,用戶體驗會非常差,不太可行。

後來也有了其他方法,比如用近紅外主動光源。

這樣的改進,使得人臉識別率得到了極大的提升。但這個問題目前還沒能得到完全解決。

二是包括姿態、表情、還有配飾。

戴個墨鏡,或頭髮的遮擋,還有化妝等,都很容易使人臉識別出現誤差。

很多人會問:“我到韓國去整個容,還能通過人臉識別進海關嗎?”

實際上,如果單純靠人臉識別的結果,你很可能會被當成不同的人。

還有人問:“雙胞胎,長得一模一樣,那人臉識別能區分出來嗎?”

答案是:“NO!”

因為單純靠長相來識別,雙胞胎(同卵)對系統來說其實就是同一張人臉。

此外,在很多情況下,人臉的姿態和表情是不受控制的。這也會影響人臉識別的結果。

那麼,如何去解決這個問題?

人臉識別技術為此研發了三維可形變的模型。具體來說,就是把輸入的圖像往一個內部的、三維模型上面貼上去,然後,根據關鍵點的位置用三維模型把這個姿態給它轉過來。轉到正面之後,我們再把這個表情歸一化,讓它變成一個中性的表情,最後就得到一個輸出。

這樣就能夠提高在大姿態、大的表情條件下的人臉識別的準確率。

還有就是年齡的跨度,面容變化會非常大,這也是一個問題。

其實,包括人臉識別在內,各種各樣的生物特徵識別(指紋、虹膜、眼睛等等)都存在著一些問題。沒有哪一個演算法,哪一個人工智慧技術能夠保證百分之百地準確識別。

3

這是最大的威脅!

除了追求高準確率之外,還有一個很重要的問題,安全性。

所以,在人臉識別的具體應用中,主要的問題從“識別人的身份”轉變成了“判斷在系統面前的臉是不是一個真人”,即“人臉防偽”。

在媒體報導上,經常能夠看到“人臉識別很危險,人臉識別不可靠,拿一張假臉也可以很容易攻破人臉識別系統”等說法。

這種狀況確實存在,一般通過建立一個三維模型或者是一些表情的嫁接進行欺騙。

目前,人臉識別的運用,主要是用於身份認證。假設我把張三的照片放在系統前,系統能不能識別出張三?

對付照片和列印還是比較簡單的,我們可以採取人機交互的方法。比如可以下指令,讓進行驗證的人眨個眼睛,看你是不是眨了眼睛。或者令其張張嘴,搖搖頭之類的。

在這個領域,“魔高一尺,道高一丈”。

前段時間,網上流傳一個視頻,提醒大家不能把自拍隨便放在網上,說是有些不法分子會拿著你的自拍生成一個三維模型,能夠順利地騙過支付寶登陸。

即使不能拿照片來應付,我把你的視頻錄下來,既有人臉又有動作,一定程度上,也能破解人臉識別。

此外,面具有時候也能輕易騙過機器。在網上就可以買到這樣仿人皮的人臉。

除人臉之外,指紋這個假體更加普遍。

在百度上隨便搜一下,就能搜出各種各樣的仿製指紋方法。它可以代打卡!就可以不用本人去上班了。

解決“假體攻擊”的一個思路是用多光譜的方法,如紫外、近紅外、熱紅外成像,我們肉眼不可見,但是它可能能分辨出真人和假體的區別,這樣的技術還在研發。

人臉識別目前還存在著很多的技術問題,但是,根據招商銀行的統計,人工核驗的錯誤率大概是5%,而機器自動識別的錯誤率大概在千分之一到萬分之一之間,已經遠遠超過了人工識別。

還有一個案例是深圳羅湖海關抓有案底的“水客”。一般條件下,人能夠識別的面孔大概只有幾千張,對不熟悉的人,很難識別出來。有的人能識別出的甚至還不到一千張臉,遠遠低於這個平均水準。然而,人臉識別在三天內就成功識別出了200多個“水客”。

但是,這樣的動態人臉監控,以我們的現有技術還達不到完全實用的地步,準確率大概只能達到40—50%。

造成準確率不高的原因有很多:

其一,人不可能配合安防相機進行人臉識別;

其二,人的運動也會造成畫面模糊;

其三,一些姿態的變化、人與人之間的遮擋,也會造成面部拍攝不清晰的情況。

這種現狀指出了人臉識別在未來需要改進的方向——在密密麻麻的人群上有一個攝像機,它能夠自動地從畫面中識別出每個人的身份。

人臉識別也有不如人的地方——它“只看臉”,不會關注髮型、高矮胖瘦等外部資訊,而人工則會綜合識別這些資訊。

我們會盡可能多的為人臉識別提供更多資訊。比如我們熟悉的指紋、虹膜,像那些大片裡面呈現的掌紋、掌靜脈、步態、簽名、指靜脈等。

把這麼多不同的多種的生物特徵結合起來,就有可能提升它的準確性與安全性。

最近大家關注的銀行“刷臉”系統,也不光是看臉,還要結合其他資訊的校驗,輸入手機號、取款金額、密碼等。這其實是給人臉識別加了一道保障。

4

未來值得期待

人臉識別技術還有一些其它的應用,比如可以用來進行情感分析、情感計算。

比如,從傅園慧的表情中,系統可以自動分析出她當時的驚訝或者是愉快,這兩種心情占了主要的成分。

另外,系統也可以根據人臉表情的變化,從一段你的視頻序列中分析出你當時某一個場景下心情的變化。這個可以運用在教育及涉及類似情緒分析的一些領域中。

還有針對人臉屬性的分析。人臉分析除了可以用來進行身份識別,還可以對他的性別、年齡和顏值進行一個估計。

比如上面這兩個哥們,真實年齡只差了一歲,但是人臉識別系統識別出來差了將近有30歲。仔細觀察一下,大家可以發現,這個演算法把他們兩個性別都識別錯了,有可能是皮膚P得太過分的原因。這種技術未來可以運用在對潛在客戶的分析以及定點廣告的投放等等。

人臉識別的未來在哪?

這得看推動其發展的大資料和深度學習怎麼發展了。

第一個是大資料。這個模型,它要能概括我們大多數場景下能夠看到的一些資料。

第二個是深度學習。它是人臉識別的核心。

深度學習也有賴於大資料的基礎,如果沒有大資料,深度學習就毫無作用。人在學習一個新概念的時候,並沒有用大資料。比如說,我們是在中國長大的,過去從來沒見過榴槤這樣一種熱帶水果。我只需要看見一次,我今後就認識它了,我並不需要像機器一樣拿一大堆榴槤來看來看去。這就是人的認知跟機器智慧的很大區別。

人臉識別技術的提高也需要跨界合作,需要做腦科學的,需要做生物、物理、化學的,需要做人工智慧的,一起來合作探討。

總而言之,技術的進步和應用需求使我們進入了“刷臉”的時代。想要再上一個臺階,需要我們在科學與技術上進一步探索與突破。除此之外,由於人臉識別的應用還存在著一些安全和隱私的問題,這就需要制定相關的一些標準和法律、法規,以規避可能存在的風險。

讓我們努力,讓我們期待。

題圖來源:視覺中國 欄目主編:程沛 圖片編輯:曹立媛
同類文章
Next Article
喜欢就按个赞吧!!!
点击关闭提示