世界上有一種病, 叫做“XX歧視病”。
XX可以是種族、地域、性別等, 這種病的主要症狀是:口臭、自戀、翻白眼
得了這種病的患者會極其擁護自己所屬的群體。
而對待某些與我方不同的種群則表現出強烈的抵抗性, 認為自己所屬的群體才是世界的真理, 宇宙的中心!
可怕的是, 這種病不只可以傳染給人, 還可以傳染給時下火熱的“人工智慧”。
說到人工智慧, 這幾年的發展可是快到飛起, 你手機裡的Siri就是其中之一。
隨著科技的不斷發展和程式猿的不斷加班, 人工智慧不僅展現出更高的智力, 還擁有了更接近人的“人性”。
可由於它們的意識是由人類所賦予, 所以也會染上人類的病。
曾經就有一名人工智慧少女死于被傳染的“XX歧視病”...
2016年3月23日, 微軟在Twitter上發佈了一個名為Tay的人工智慧少女——
她擁有自己的Twitter帳號和主頁, 只要你@一下她, 就會得到她的回復資訊。
而且她的演算法設定是通過學習網友的對話來豐富自己的語料庫, 跟人聊得越多就越聰明~
可惜自古紅顏多薄命,Ray 出生的第一天就遇到了那些患有“XX歧視病”的人。
這些人跟她的聊天充斥著滿滿的惡意和不良資訊...
於是,僅僅數小時,Ray 就從一個不食人間煙火的無知少女變成了一個仇視女性、仇視少數族裔、沒有任何同情心的種族主義者。
(Tay在上線後數小時內態度的轉變)
最終,為了平息公眾的憤怒,微軟選擇將她下線,這個出生還不到一天的人工智慧少女就此入了土。
而那些惡意傳播疾病的人則繼續展現了興風作浪的本事——
依然是2016年,由微軟和英偉達兩大科技巨頭支持的“青年實驗室”舉辦了全球第一屆AI選美比賽——Beauty.AI 2.0
顧名思義,就是讓人工智慧來評定你的顏值,而這些人工智慧的審美演算法也是學習於網路。
這次比賽吸引來了來自全球119個國家和地區的六千名參賽者。
他們紛紛貢獻出自己的鎮宅之照前來參賽!不是朋友圈裡的照騙,而是純天然無化妝無PS的照片。
儘管AI評審們看似人淡如菊大公無私,打分標準參考了以下五大科學因素。
1. RYNKL的面部皺紋檢測演算法;
2. 檢測粉刺等皮膚問題的PIMPL演算法(包括了無過濾/高級過濾的斑點檢測)
3. 面孔對稱性;
4. 把真實年齡和預測年齡比對,判斷是否顯老;
5. 將面部與資料庫中的演員和模特作比較。
然而並沒有什麼卵用~
雖然打分標準裡沒有參考膚色,但最終脫穎而出的44位選美冠軍裡幾乎清一色是白人。
難道我們黃種人和黑種人就醜人一等嗎?
顯然不是,只是因為這些AI評審被那些患有種族歧視的白人傳染了~
不過黃種人還好,在人工智慧的浪潮之下,受傷更多的還是黑人。
此前就有研究表明,一個叫做 Compass 的“囚犯獲釋評估系統”對黑人的獲釋評估極其不公平,即黑人囚犯的獲釋的機會遠比白人低。
那麼看了這些案例,人工智慧是如何被傳染“XX歧視病”的呢?
簡單解釋一下就是——
許多人工智慧使用的資料庫是來源於網路上的文本與其他資訊,資料庫裡有一個概念叫“單詞嵌入”。
什麼叫“單詞嵌入”呢?
舉個栗子,在某個資料庫中裡詢問:
中國:北京
日本:?
xx是系統根據前面的對應關係而給出的答案,在這個例子裡日本後面應該填“東京”。
然而前幾年,來自波士頓大學和微軟研究院的大神們卻發現這個資料庫裡存在明顯的性別歧視。
他們在資料庫裡詢問:
男人:程式師
女人:?
這時系統給出的答案是“主婦”。
也許你覺得這沒什麼...但如果這個資料庫應用在網頁搜尋引擎,那麼當一個BOSS搜索“程式師簡歷”時,搜索結果裡顯示的男性簡歷會遠遠排在女性簡歷前面,女程式師則哭暈在廁所~
而這一切都在不知不覺中發生,因為資料庫來源於網路,誰知道它什麼時候把這些偏見學了進去。
就像這些大神所說的:“單詞嵌入不僅反映了現有的偏見現象,而且還進一步放大了偏見。”
就像最近小米的智慧音箱被曝歧視同性戀一樣,官方也只能無奈地回應稱這種行為源于網路自學。。。
這不禁讓我想起了去年斯坦福大學研究出的“性取向識別演算法”。
光憑一張照片就能判斷他是同性戀還是異性戀。
如果只提供一張照片,它判斷男同性戀和異性戀的準確率是81%,判斷女性同性戀和異性戀的準確率是74%。
而如果提供五張照片,那麼兩者的準確率會提高到91%和83%。遠比人類的“基達”靈敏。
雖然這套演算法還不成熟,也沒有發展到歧視的地步...
但考慮到世界上某些國家還在對同性戀處以死刑,這種演算法要是在他們手裡被染上"性取向歧視"也不稀奇。
當然,人工智慧的“病”都是被人類傳染的,而很多情況下我們無法控制它們在網路上獲取到的資訊...
所以最好的解決方法還是儘量在網路上謹言慎行。
可惜自古紅顏多薄命,Ray 出生的第一天就遇到了那些患有“XX歧視病”的人。
這些人跟她的聊天充斥著滿滿的惡意和不良資訊...
於是,僅僅數小時,Ray 就從一個不食人間煙火的無知少女變成了一個仇視女性、仇視少數族裔、沒有任何同情心的種族主義者。
(Tay在上線後數小時內態度的轉變)
最終,為了平息公眾的憤怒,微軟選擇將她下線,這個出生還不到一天的人工智慧少女就此入了土。
而那些惡意傳播疾病的人則繼續展現了興風作浪的本事——
依然是2016年,由微軟和英偉達兩大科技巨頭支持的“青年實驗室”舉辦了全球第一屆AI選美比賽——Beauty.AI 2.0
顧名思義,就是讓人工智慧來評定你的顏值,而這些人工智慧的審美演算法也是學習於網路。
這次比賽吸引來了來自全球119個國家和地區的六千名參賽者。
他們紛紛貢獻出自己的鎮宅之照前來參賽!不是朋友圈裡的照騙,而是純天然無化妝無PS的照片。
儘管AI評審們看似人淡如菊大公無私,打分標準參考了以下五大科學因素。
1. RYNKL的面部皺紋檢測演算法;
2. 檢測粉刺等皮膚問題的PIMPL演算法(包括了無過濾/高級過濾的斑點檢測)
3. 面孔對稱性;
4. 把真實年齡和預測年齡比對,判斷是否顯老;
5. 將面部與資料庫中的演員和模特作比較。
然而並沒有什麼卵用~
雖然打分標準裡沒有參考膚色,但最終脫穎而出的44位選美冠軍裡幾乎清一色是白人。
難道我們黃種人和黑種人就醜人一等嗎?
顯然不是,只是因為這些AI評審被那些患有種族歧視的白人傳染了~
不過黃種人還好,在人工智慧的浪潮之下,受傷更多的還是黑人。
此前就有研究表明,一個叫做 Compass 的“囚犯獲釋評估系統”對黑人的獲釋評估極其不公平,即黑人囚犯的獲釋的機會遠比白人低。
那麼看了這些案例,人工智慧是如何被傳染“XX歧視病”的呢?
簡單解釋一下就是——
許多人工智慧使用的資料庫是來源於網路上的文本與其他資訊,資料庫裡有一個概念叫“單詞嵌入”。
什麼叫“單詞嵌入”呢?
舉個栗子,在某個資料庫中裡詢問:
中國:北京
日本:?
xx是系統根據前面的對應關係而給出的答案,在這個例子裡日本後面應該填“東京”。
然而前幾年,來自波士頓大學和微軟研究院的大神們卻發現這個資料庫裡存在明顯的性別歧視。
他們在資料庫裡詢問:
男人:程式師
女人:?
這時系統給出的答案是“主婦”。
也許你覺得這沒什麼...但如果這個資料庫應用在網頁搜尋引擎,那麼當一個BOSS搜索“程式師簡歷”時,搜索結果裡顯示的男性簡歷會遠遠排在女性簡歷前面,女程式師則哭暈在廁所~
而這一切都在不知不覺中發生,因為資料庫來源於網路,誰知道它什麼時候把這些偏見學了進去。
就像這些大神所說的:“單詞嵌入不僅反映了現有的偏見現象,而且還進一步放大了偏見。”
就像最近小米的智慧音箱被曝歧視同性戀一樣,官方也只能無奈地回應稱這種行為源于網路自學。。。
這不禁讓我想起了去年斯坦福大學研究出的“性取向識別演算法”。
光憑一張照片就能判斷他是同性戀還是異性戀。
如果只提供一張照片,它判斷男同性戀和異性戀的準確率是81%,判斷女性同性戀和異性戀的準確率是74%。
而如果提供五張照片,那麼兩者的準確率會提高到91%和83%。遠比人類的“基達”靈敏。
雖然這套演算法還不成熟,也沒有發展到歧視的地步...
但考慮到世界上某些國家還在對同性戀處以死刑,這種演算法要是在他們手裡被染上"性取向歧視"也不稀奇。
當然,人工智慧的“病”都是被人類傳染的,而很多情況下我們無法控制它們在網路上獲取到的資訊...
所以最好的解決方法還是儘量在網路上謹言慎行。