華文網

穀歌 Arts&Culture 遭指責種族偏見,演算法成罪魁禍首?

上周,雷鋒網發現一款名為 Google Arts & Culture 的應用突然火了起來。

據雷鋒網瞭解,該應用原本是谷歌文化學院(Cultural Institute)2016 年發佈的產品,其中涵蓋了全球 70 多個國家和地區的1000 多家藝術博物館藏品資料。

輸入你能想到的任何字眼,應用能幫你搜索到與之相關聯的作品,除了對作品背景的介紹,藝術愛好者還可以選擇喜愛的大師,並按照年份,流覽該大師的作品。為了讓大眾“走進”這些博物館,這款應用甚至還加入了 360 度全景視訊模式。

儘管功能強大,但你可能沒想到,發佈一年後,現在因為自拍功能,這款應用在上周成為 iOS 和 Android 免費應用下載第一名。

具體來說,用戶將自己的自拍照上傳應用,

應用自動找出與用戶相像的畫作,不過根據穀歌一位元發言人稱,該功能目前只在美國部分地區上線,還沒有計劃在其他地區上線。

好玩的自拍功能吸引了眾多的用戶,但也暴露出了問題。

一位來自 Digg News 的編輯 Benjamin Goggin 注意到,很多有色人種發現,

與他們自拍相匹配的藝術作品相對有限。有的人發現,與他們匹配的作品帶有固定的偏見,如有色人種常常是奴隸、僕人等,而女性則是色☆禁☆情小說中的角色。

谷歌發言人表示,“這種局限性是由其平臺上涵蓋的作品數量而導致。歷史作品往往無法反映世界的多樣性,我們正努力將更多元化的藝術作品導入平臺上。”

與此同時,這項自拍功能所引起的種族問題得到了各大媒體的報導,

如 Bustle、BuzzFeed、Marketwatch 等等。毫不奇怪,這也引起了許多隱私問題。在上傳自拍錢,應用會呈現一條資訊,穀歌告訴使用者,它不會使用自拍資料作為他用,只用來找到匹配的藝術品,並且不會儲存照片。

據雷鋒網瞭解,Google Art & Culture 在 2011 年還被成為 Google Art Project(穀歌藝術項目),當時一推出便被指責是歐洲中心主義。原先的 17 家合作博物館多位於華盛頓特區、紐約,或是西歐,人們指責博物館覆蓋的範圍太小。於是,

穀歌迅速擴大博物館的範圍,正如前文提到的,如今已經涵蓋了 70 個國家和地區的1500 家文化機構。

然而,從 Google Art & Culture 收藏的地圖來看,美國和歐洲仍然佔據主導。穀歌正在努力呈現多樣性的藝術家、藝術作品和風格,但如果不瓦解歐洲中心主義,數世紀的人種偏見便不會消失。

2015 年,梅隆基金(Mellon Foundation)在美術博物館館長協會和美國博物館聯盟的協助下,發佈了首份針對美國博物館人種多樣性的調查。

調查結果顯示,博物館 84% 的管理職位均由白人擔任,博物館初級職員中少數族裔也較少,梅隆基金表示,這說明如果博物館希望未來領導者人種足夠多樣性,現在需要積極地培養年輕人才。另外,藝術院校的女生多於男生,但當代藝術展仍然是男性佔據主導。

如果是上述是歷史遺留的問題,那麼現在演算法不僅沒有緩解問題,還將問題惡化了。

因為演算法無法使使用者免受種族的偏見,反而吸收和學習,放大並且傳播偏見,同時打造出技術不受人類偏見影響的錯覺。面部識別演算法已經證明了其能造成的傷害,例如,兩名黑人用戶發現他們的照片被貼上了“大猩猩”的標籤。穀歌已經為此道歉,遮罩了程式中的“大猩猩”、“黑猩猩”、“猴子”的圖片分類。

演算法的準確度同基準資料集一致,而這些資料集則反映了資料收集者的偏見,不管是有意還是無意。來自 MIT 的畢業生 Joy Buolamwini 正在研究該問題,他此前曾創辦了演算法正義聯盟(Algorithmic Justice League)防止偏見被編碼植入軟體中,而這將對種族定性和公民權利帶來巨大的影響。去年,在 TED 演講中,黑人 Buolamwini 講述了當她帶上白人面具時,一些帶有機器視覺的機器人如何快速地識別她的經歷。

人臉識別演算法中的偏見與彩色電影的發展遙相呼應。20 世紀 50 年代,柯達向照片實驗室發送女模特卡片,以説明他們校準膚色。所有的模特都被稱為雪麗,此後幾十年所有的模特都是白色人種。這意味著,黑人形象常常被曲解,或是未能被真正描述。

如今,通過 Google Art & Culture,穀歌正在挑戰種族偏見和短視思維,因為基於穀歌技術的產品可超越地理、語言和文化的局限,而這是其他媒體無法做到的。應用中的自拍功能不僅僅是愚蠢的模仿,但是要認識到其局限性,這也意味著面對藝術歷史中,藝術作品收集中存在的偏見,並且告訴用戶這樣事實的存在。

如果是上述是歷史遺留的問題,那麼現在演算法不僅沒有緩解問題,還將問題惡化了。

因為演算法無法使使用者免受種族的偏見,反而吸收和學習,放大並且傳播偏見,同時打造出技術不受人類偏見影響的錯覺。面部識別演算法已經證明了其能造成的傷害,例如,兩名黑人用戶發現他們的照片被貼上了“大猩猩”的標籤。穀歌已經為此道歉,遮罩了程式中的“大猩猩”、“黑猩猩”、“猴子”的圖片分類。

演算法的準確度同基準資料集一致,而這些資料集則反映了資料收集者的偏見,不管是有意還是無意。來自 MIT 的畢業生 Joy Buolamwini 正在研究該問題,他此前曾創辦了演算法正義聯盟(Algorithmic Justice League)防止偏見被編碼植入軟體中,而這將對種族定性和公民權利帶來巨大的影響。去年,在 TED 演講中,黑人 Buolamwini 講述了當她帶上白人面具時,一些帶有機器視覺的機器人如何快速地識別她的經歷。

人臉識別演算法中的偏見與彩色電影的發展遙相呼應。20 世紀 50 年代,柯達向照片實驗室發送女模特卡片,以説明他們校準膚色。所有的模特都被稱為雪麗,此後幾十年所有的模特都是白色人種。這意味著,黑人形象常常被曲解,或是未能被真正描述。

如今,通過 Google Art & Culture,穀歌正在挑戰種族偏見和短視思維,因為基於穀歌技術的產品可超越地理、語言和文化的局限,而這是其他媒體無法做到的。應用中的自拍功能不僅僅是愚蠢的模仿,但是要認識到其局限性,這也意味著面對藝術歷史中,藝術作品收集中存在的偏見,並且告訴用戶這樣事實的存在。