您的位置:首頁>科技>正文

AI演算法為什麼會存在性別歧視?穀歌做出了解釋

一直以來, 通過研究表明, 人類研發的機器也能學習到人類看待這個世界的視角, 無論其是否有意。 對於閱讀文本的人工智慧來說, 它可能會將“醫生”一詞與男性優先關聯, 而非女性, 或者圖像識別演算法也會更大概率的將黑人錯誤分類為大猩猩。

2015年, Google Photos應用誤把兩名黑人標注為“大猩猩”, 當時這一錯誤意味著穀歌的機器學習還處於“路漫漫其修遠兮”的狀態。 隨後, 穀歌立即對此道歉, 並表示將調整演算法, 以修復該問題。 近日, 作為該項錯誤的責任方, 穀歌正在試圖讓大眾瞭解AI是如何在不經意間永久學習到創造它們的人所持有的偏見。

一方面, 這是穀歌對外PR(公共關係)的好方式, 其次, AI程式師也可以用一種簡單的方法來概述自己的偏見演算法。

在該視頻中, 穀歌概述了三種偏見:

互動偏差:使用者可以通過我們和其交互的方式來偏移演算法。 例如, 穀歌把一些參與者召集其起來, 並讓他們每人畫一隻鞋, 但多半用戶會選擇畫一隻男鞋, 所以以這些資料為基礎的系統可能並不會知道高跟鞋也是鞋子。

潛在偏差:該演算法會將想法和性別、種族、收入等不正確地進行關聯。 例如, 當用戶在Google Search搜索“醫生”時, 出現的大多為白人男性。

雷鋒網瞭解到, 此前Quarts發佈了一則相關新聞, 該報導稱, 經普林斯頓大學最新研究成果表明, 這些偏見, 如將醫生與男性相關聯, 而將護士與女性關聯, 都來自演算法被教授的語言的影響。 正如一些資料科學家所說:沒有好的資料, 演算法也做不出好的決策。

選擇偏差:據瞭解, 用於訓練演算法的資料量已經大大超過全球人口的數量, 以便對演算法實行更好的操作和理解。

所以如果訓練圖像識別的資料僅針對白人而進行, 那麼得到的資料也只能來自AI的認定。

去年6月, “青年實驗室”(英偉達、微軟等科技巨擘均是該實驗室的合作夥伴和支持者)舉辦了一次Beauty.ai的網路選美大賽。 該比賽通過人工智慧分析,

徵集了60萬條記錄。 該演算法參考了皺紋、臉部比例、皮膚疙瘩和瑕疵的數量、種族和預測的年齡等等因素。 最後結果表明, 種族這一因素比預期發揮了更大的作用:在44名獲獎者當中, 其中有36人為白人。

事實上, 關於演算法中含有性別、種族偏見的研究和報導, 早已有之。 而據雷鋒網此前報導, 要消除這些偏見, 並不容易。 正如微軟紐約研究院的高級研究員Hanna Wallach所說:

『只要機器學習的程式是通過社會中已經存在的資料進行訓練的, 那麼只要這個社會還存在偏見, 機器學習也就會重現這些偏見。 』

Via Quartz, 雷鋒網編譯

Next Article
喜欢就按个赞吧!!!
点击关闭提示