您的位置:首頁>正文

深度學習即將非法?歐盟《一般資料保護條例》五月生效

《歐盟一般資料保護條例》(General Data Protection Regulation, GDPR)是 20 年來資料隱私條例的最重要變化, 它將取代《歐盟個人資料保護指令》95/46/EC, 並將協調全歐洲的資料隱私法律, 為所有歐盟民眾保護和授權資料隱私, 並將重塑整個地區的資料隱私保護形式。 在 GDPR 中, 有關「演算法公平性」的條款要求所有公司必須對其演算法的自動決策進行解釋, 這意味著目前大量 AI 應用依賴的深度學習演算法不再符合法規。

GDPR 的重點內容, 以及它對商業的影響, 可在其官方網站上找到:https://www.eugdpr.org/

幾個月後, 《一般資料保護條例》(GDPR)將生效, 這被認為是對人工智慧應用於商業的方式的一次徹底整改。

2018 年 5 月 25 日, GDPR 將在歐盟全面實施。

113 天后就要到來的 Deadline 引起了 AI 社區和技術巨頭的爭論, 他們現在正在努力滿足歐盟的資料隱私和演算法公平性原則。 而對於歐盟公民來說, GDPR 統一資料保護法規, 增加技術公司在收集使用者資料時的責任, 從而保護了公民權利。

在 GDPR 的網站上有一個時鐘:再過 113 天該條例就將在全歐盟生效了。

GDPR 即將實施引起了很多人工智慧學界人士的關注, 《終極演算法》作者, 華盛頓大學教授 Pedro Domingos 在社交網路中說道:「自 5 月 25 日起, 歐盟將會要求所有演算法解釋其輸出原理, 這意味著深度學習成為非法的方式。 」

即將到來的規定將歐洲分成兩大陣營:擁抱資料隱私和演算法公平性原則的社會公民;對此不滿的技術巨頭,

因為它們將面臨新的挑戰, 如需要徵求使用者同意、處理 AI 的黑箱問題, 這些問題可能最終導致 AI 相關應用不再合法, 違者將接受全球營業額 4% 的罰款。

GDPR 要點概述

規定針對從歐盟公民處收集資料的企業:該規定不限於總部在歐盟地區的企業,

而是覆蓋到從歐盟公民處收集資料的所有組織。 GDPR 要求此類企業反思其條款和條件(解釋該公司如何使用個人資料來銷售廣告)中的內容, 強制企業遵循 Privacy by Design 原則。

資料轉移權:該規定聲明, 使用者可要求自己的個人資料暢通無阻地直接遷移至新的提供商, 資料以機器可讀的格式遷移。 這類似於在不丟失任何資料的情況下更改移動運營商或社交網路。 對於穀歌、Facebook 等名副其實的資料採擷公司和較小的資料科學創業公司而言, 這就像是敲響了喪鐘, 當使用者不再使用該公司產品時, 它們將會丟失大量資料。

被遺忘權:GDPR 第 17 條強調, 每個資料主體有權要求資料控制者刪除個人資料, 並且不能過分延長資料留存時間,

控制者有義務遵循該規定。 這對以 cookie 形式收集資料、從定向投放廣告中獲取收益的技術巨頭而言是一項巨大損失。

演算法公平性:自動決策的可解釋權(The Right to Explanation of Automated Decision)指出資料主體有權要求演算法自動決策給出解釋, 有權在對演算法決策不滿意時選擇退出。 例如, 如果貸款申請人被自動決策拒絕時, 有權尋求解釋。 對於技術公司而言, 這是對人工智慧的嚴重限制, 將大幅減緩 AI 技術的發展。

AI 的高性能 vs 難解釋性難題

在這裡, 我們不想深入研究歐盟指導方針的本質, 但有必要指出目前被廣泛應用的人工智慧技術所面臨的最大批評——深度學習及其不可解釋性(即黑箱狀態)。 這可能會導致任何 AI 公司無法開展已有業務, 甚至會被認為非法。 目前, 人工智慧專家和科技公司從資料中獲益, 但又不斷聲稱這些演算法因為架構的複雜性而難以解釋其輸出的生成原理。

著名學者 Dr. PK Viswanathan 曾對人工神經網路的黑箱問題進行過研究。 根據他的介紹, 人們普遍認為神經網路是一個黑箱, 但其機制並非完全不可解釋,仍有一些分析其原理的方法。

人工神經網路的拓撲學

我們討論兩個隱藏層的多層感知機(一種前饋人工神經網路)。兩個隱藏層的多層感知機因其預測準確率而知名。在兩個隱藏層的多層感知機中,有兩個輸入神經元、兩個隱藏層和四個節點,然後給出輸出。網路初始化權重、偏置項、數值,啟動函數可設定為 sigmoid 函數(或 logistic 函數),你可以用前饋方法改變權重的值。

在其架構中,隱藏層和黑箱點以及神經網路學習訓練資料的方式密切相關,這正是對其主要批判的來源。

神經網路的推理方法是通過反覆運算地最小化損失函數不斷改變權重的值。這被稱為黑箱難題,它可以逼近任何函數,但對預測變數和輸出之間的關係不能給出任何解釋,PK Viswanathan 說。在監督學習問題中,人們可以解釋 x 和 y 之間的準確關係,但無法捕捉神經網路生成這些關係的運作方式。

人們對於神經網路的最大批判是:

它缺乏可解釋力,我們無法確定隱藏層內部發生了什麼。但是神經網路在近似值和精確度上普遍得分較高。

在現實世界中很難解釋摘要權重(synoptic weight),但是在傳統技術中卻不是,這進一步加深了黑箱難題。

解決深度學習的黑箱難題

現在,許多研究者已經致力於解釋神經網路如何做出決策。其中一些方法如下:

LIME:Local Interpretable Model-Agnostic Explanations 更廣為所知的名稱是 LIME,它是一個涉及以多種方式運算元據變數以查看什麼把分值提高的最多的技術。在 LIME 中,局部指的是局部保真度,即解釋應該反映分類器在被預測實例「周圍」的行為。這一解釋是無用的除非它是可闡釋的——也就是說,除非人可以理解它。Lime 可以解釋任何模型而無需深入它,因此它是模型不可知論的。

DARPA 的可解釋性 AI(Explainable AI):現在,DARPA 創建了一套機器學習技術來產生更可解釋的模型,同時維持一個高水準的學習表現。可解釋性 AI 可以使人類用戶理解和管理即將到來的 AI 夥伴,其核心優勢是新技術可以潛在地回避掉對額外層的需求。另一個解釋元件可以從訓練神經網路關聯帶有隱藏層節點的語義屬性——這可以促進對可解釋功能的學習。

但其機制並非完全不可解釋,仍有一些分析其原理的方法。

人工神經網路的拓撲學

我們討論兩個隱藏層的多層感知機(一種前饋人工神經網路)。兩個隱藏層的多層感知機因其預測準確率而知名。在兩個隱藏層的多層感知機中,有兩個輸入神經元、兩個隱藏層和四個節點,然後給出輸出。網路初始化權重、偏置項、數值,啟動函數可設定為 sigmoid 函數(或 logistic 函數),你可以用前饋方法改變權重的值。

在其架構中,隱藏層和黑箱點以及神經網路學習訓練資料的方式密切相關,這正是對其主要批判的來源。

神經網路的推理方法是通過反覆運算地最小化損失函數不斷改變權重的值。這被稱為黑箱難題,它可以逼近任何函數,但對預測變數和輸出之間的關係不能給出任何解釋,PK Viswanathan 說。在監督學習問題中,人們可以解釋 x 和 y 之間的準確關係,但無法捕捉神經網路生成這些關係的運作方式。

人們對於神經網路的最大批判是:

它缺乏可解釋力,我們無法確定隱藏層內部發生了什麼。但是神經網路在近似值和精確度上普遍得分較高。

在現實世界中很難解釋摘要權重(synoptic weight),但是在傳統技術中卻不是,這進一步加深了黑箱難題。

解決深度學習的黑箱難題

現在,許多研究者已經致力於解釋神經網路如何做出決策。其中一些方法如下:

LIME:Local Interpretable Model-Agnostic Explanations 更廣為所知的名稱是 LIME,它是一個涉及以多種方式運算元據變數以查看什麼把分值提高的最多的技術。在 LIME 中,局部指的是局部保真度,即解釋應該反映分類器在被預測實例「周圍」的行為。這一解釋是無用的除非它是可闡釋的——也就是說,除非人可以理解它。Lime 可以解釋任何模型而無需深入它,因此它是模型不可知論的。

DARPA 的可解釋性 AI(Explainable AI):現在,DARPA 創建了一套機器學習技術來產生更可解釋的模型,同時維持一個高水準的學習表現。可解釋性 AI 可以使人類用戶理解和管理即將到來的 AI 夥伴,其核心優勢是新技術可以潛在地回避掉對額外層的需求。另一個解釋元件可以從訓練神經網路關聯帶有隱藏層節點的語義屬性——這可以促進對可解釋功能的學習。

同類文章
Next Article
喜欢就按个赞吧!!!
点击关闭提示