一直以來, 通過研究表明, 人類研發的機器也能學習到人類看待這個世界的視角, 無論其是否有意。 對於閱讀文本的人工智慧來說, 它可能會將“醫生”一詞與男性優先關聯, 而非女性, 或者圖像識別演算法也會更大概率的將黑人錯誤分類為大猩猩。
2015年, Google Photos應用誤把兩名黑人標注為“大猩猩”, 當時這一錯誤意味著穀歌的機器學習還處於“路漫漫其修遠兮”的狀態。 隨後, 穀歌立即對此道歉, 並表示將調整演算法, 以修復該問題。 近日, 作為該項錯誤的責任方, 穀歌正在試圖讓大眾瞭解AI是如何在不經意間永久學習到創造它們的人所持有的偏見。
在該視頻中, 穀歌概述了三種偏見:
互動偏差:使用者可以通過我們和其交互的方式來偏移演算法。 例如, 穀歌把一些參與者召集其起來, 並讓他們每人畫一隻鞋, 但多半用戶會選擇畫一隻男鞋, 所以以這些資料為基礎的系統可能並不會知道高跟鞋也是鞋子。
潛在偏差:該演算法會將想法和性別、種族、收入等不正確地進行關聯。 例如, 當用戶在Google Search搜索“醫生”時, 出現的大多為白人男性。
雷鋒網瞭解到, 此前Quarts發佈了一則相關新聞, 該報導稱, 經普林斯頓大學最新研究成果表明, 這些偏見, 如將醫生與男性相關聯, 而將護士與女性關聯, 都來自演算法被教授的語言的影響。 正如一些資料科學家所說:沒有好的資料, 演算法也做不出好的決策。
選擇偏差:據瞭解, 用於訓練演算法的資料量已經大大超過全球人口的數量, 以便對演算法實行更好的操作和理解。
去年6月, “青年實驗室”(英偉達、微軟等科技巨擘均是該實驗室的合作夥伴和支持者)舉辦了一次Beauty.ai的網路選美大賽。 該比賽通過人工智慧分析,
事實上, 關於演算法中含有性別、種族偏見的研究和報導, 早已有之。 而據雷鋒網此前報導, 要消除這些偏見, 並不容易。 正如微軟紐約研究院的高級研究員Hanna Wallach所說:
『只要機器學習的程式是通過社會中已經存在的資料進行訓練的, 那麼只要這個社會還存在偏見, 機器學習也就會重現這些偏見。 』
Via Quartz, 雷鋒網編譯