華文網

居安思危!人工智慧現在已經學會了性別歧視

人工智慧的火爆簡直要衝破宇宙了,不僅各大IT巨頭押寶人工智慧,就連綜藝節目也沒有放過這一風口。芒果台自製的明星推理綜藝秀《明星大偵探》也採用了人工智慧主題,

錄製了《2046》。這期節目除了劇本精彩、推理燒腦之外,其表達出的“人類創造了機器人卻反被其利用甚至殺害”主題,也發人深省。

大多數的企業和科學家都希望人工智慧快速發展,且無限接近人類的思考方式。但在這其中他們忘記了人類除了正常的三觀之外,還有很多不正的想法。最近,一項研究表明AI系統(如Google翻譯)已經獲得與人類相同的文化偏見,這足以引起人們的重視。

這份來自普林斯頓大學的研究被刊登在美國《科學》週刊上,

普林斯頓分校電腦科學助理教授Arvind Narayanan向CITP介紹了本研究的理由:

“機器學習中的公平和偏見問題對於社會來說是非常重要的,因為這些人工智慧系統可能會永久存在著社會上不接受的歷史模式以及我們正在試圖擺脫的偏見。”

隱性關聯測試是用來研究人類偏見的工具,測試被測試者對於螢幕上字的關聯詞的回應時間,

測試結果顯示對於關聯詞的回應時間要遠小於非關聯詞。

普林斯頓大學的研究人員開發了一種類似的方法來測量從人類文本中獲取語言的AI系統中的偏差,重點關注一種名為“單詞嵌入”機器學習工具,利用詞之間的關聯關係,總共分析了大約220萬個詞。此次研究他們選擇了斯坦福大學研究人員開發的GloVe,這是目前根據上下文提取單詞意思最先進的方法,也就是通過這些單詞意思和其他單詞在文本中出現的頻率來進行判斷。

根據GloVe和相關方法,在相似的文章中兩個單詞出現的頻率越高,他們關聯性越高。比如,如果“女人”這個詞經常和與家庭有關的詞一起出現,那麼“女人”這個概念就和“家庭”關聯性非常高。

AAS發佈了這個視頻,Aylin Caliskan,Joanna Bryson和Arvind Narayanan解釋了他們的方法和研究結果,揭示了AI系統中的種族和性別偏見。

在視頻中,Aylin Caliskan解釋說,女性名字通常與家庭相關,

而男性名稱與職業相關聯,並展示了Google翻譯在對土耳其語翻譯時就沿用了這一性別陳規觀念,性別代詞有三個分別是He、She、It。在谷歌翻譯中出現了下圖的情況:

Joanna Bryson指出人工智慧對於女性職業偏見的學習和女性在社會中所扮演的角色相比,甚至比美國勞工統計局更準確地預測了職業類型中女性的實際比例,

並以散點圖的形式表現出來:

Bryson在接受採訪中曾表示:“很多人說AI是存在偏見的,其實這種說法是不準確的,更準確的說法是,人類是有偏見的,而AI學習到了這種偏見,並且有加深現有偏見的趨勢,因為演算法和人類不同,無法自動抵消學習到的偏見。”

“如果一個AI系統中沒有被明確的部分是由道德觀念來驅動的,那麼將是一件非常危險的事情。”Nature雜誌的一篇文章再次重申了這一觀點,並提出了一些建議:

如果用於簡歷篩選的機器學習技術吸收了文化定型觀念,那麼勢必會導致偏見的出現,在機器學習的新興領域出現了一種新的方法,那麼可能會導致偏見的結果。我們建議通過明確表徵可接受的行為來解決這個問題。在機器學習的公平的新生領域中可以看到一種這樣的方法,它規定和執行決策中不歧視的數學公式。可以在模組化AI體系結構(例如認知系統)中找到另一種方法,其中統計規律的隱式學習可以被劃分,並通過適當行為規則的明確指導來增加。當然,必須謹慎使用通過無監督的機器學習構建的模組到決策系統中。

所以儘管可能有些情況下無人監督的學習可以揭示有趣和有洞察力的結果,機器學習在社會上放鬆,但是需要將其監督到應用可接受的規範,而不僅僅是現有的規範。

因為演算法和人類不同,無法自動抵消學習到的偏見。”

“如果一個AI系統中沒有被明確的部分是由道德觀念來驅動的,那麼將是一件非常危險的事情。”Nature雜誌的一篇文章再次重申了這一觀點,並提出了一些建議:

如果用於簡歷篩選的機器學習技術吸收了文化定型觀念,那麼勢必會導致偏見的出現,在機器學習的新興領域出現了一種新的方法,那麼可能會導致偏見的結果。我們建議通過明確表徵可接受的行為來解決這個問題。在機器學習的公平的新生領域中可以看到一種這樣的方法,它規定和執行決策中不歧視的數學公式。可以在模組化AI體系結構(例如認知系統)中找到另一種方法,其中統計規律的隱式學習可以被劃分,並通過適當行為規則的明確指導來增加。當然,必須謹慎使用通過無監督的機器學習構建的模組到決策系統中。

所以儘管可能有些情況下無人監督的學習可以揭示有趣和有洞察力的結果,機器學習在社會上放鬆,但是需要將其監督到應用可接受的規範,而不僅僅是現有的規範。