您的位置:首頁>正文

穀歌 Arts&Culture 遭指責種族偏見,演算法成罪魁禍首?

上周, 雷鋒網發現一款名為 Google Arts & Culture 的應用突然火了起來。

據雷鋒網瞭解, 該應用原本是谷歌文化學院(Cultural Institute)2016 年發佈的產品, 其中涵蓋了全球 70 多個國家和地區的1000 多家藝術博物館藏品資料。 輸入你能想到的任何字眼, 應用能幫你搜索到與之相關聯的作品, 除了對作品背景的介紹, 藝術愛好者還可以選擇喜愛的大師, 並按照年份, 流覽該大師的作品。 為了讓大眾“走進”這些博物館, 這款應用甚至還加入了 360 度全景視訊模式。

儘管功能強大, 但你可能沒想到, 發佈一年後, 現在因為自拍功能, 這款應用在上周成為 iOS 和 Android 免費應用下載第一名。

具體來說, 用戶將自己的自拍照上傳應用, 應用自動找出與用戶相像的畫作, 不過根據穀歌一位元發言人稱, 該功能目前只在美國部分地區上線, 還沒有計劃在其他地區上線。

好玩的自拍功能吸引了眾多的用戶, 但也暴露出了問題。

一位來自 Digg News 的編輯 Benjamin Goggin 注意到, 很多有色人種發現, 與他們自拍相匹配的藝術作品相對有限。 有的人發現, 與他們匹配的作品帶有固定的偏見, 如有色人種常常是奴隸、僕人等, 而女性則是色情小說中的角色。

谷歌發言人表示, “這種局限性是由其平臺上涵蓋的作品數量而導致。 歷史作品往往無法反映世界的多樣性, 我們正努力將更多元化的藝術作品導入平臺上。 ”

與此同時, 這項自拍功能所引起的種族問題得到了各大媒體的報導, 如 Bustle、BuzzFeed、Marketwatch 等等。 毫不奇怪, 這也引起了許多隱私問題。 在上傳自拍錢, 應用會呈現一條資訊, 穀歌告訴使用者, 它不會使用自拍資料作為他用, 只用來找到匹配的藝術品, 並且不會儲存照片。

據雷鋒網瞭解,

Google Art & Culture 在 2011 年還被成為 Google Art Project(穀歌藝術項目), 當時一推出便被指責是歐洲中心主義。 原先的 17 家合作博物館多位於華盛頓特區、紐約, 或是西歐, 人們指責博物館覆蓋的範圍太小。 於是, 穀歌迅速擴大博物館的範圍, 正如前文提到的, 如今已經涵蓋了 70 個國家和地區的1500 家文化機構。

然而, 從 Google Art & Culture 收藏的地圖來看, 美國和歐洲仍然佔據主導。 穀歌正在努力呈現多樣性的藝術家、藝術作品和風格, 但如果不瓦解歐洲中心主義, 數世紀的人種偏見便不會消失。

2015 年, 梅隆基金(Mellon Foundation)在美術博物館館長協會和美國博物館聯盟的協助下, 發佈了首份針對美國博物館人種多樣性的調查。 調查結果顯示, 博物館 84% 的管理職位均由白人擔任, 博物館初級職員中少數族裔也較少,

梅隆基金表示, 這說明如果博物館希望未來領導者人種足夠多樣性, 現在需要積極地培養年輕人才。 另外, 藝術院校的女生多於男生, 但當代藝術展仍然是男性佔據主導。

如果是上述是歷史遺留的問題, 那麼現在演算法不僅沒有緩解問題,

還將問題惡化了。

因為演算法無法使使用者免受種族的偏見, 反而吸收和學習, 放大並且傳播偏見, 同時打造出技術不受人類偏見影響的錯覺。 面部識別演算法已經證明了其能造成的傷害, 例如, 兩名黑人用戶發現他們的照片被貼上了“大猩猩”的標籤。 穀歌已經為此道歉, 遮罩了程式中的“大猩猩”、“黑猩猩”、“猴子”的圖片分類。

演算法的準確度同基準資料集一致, 而這些資料集則反映了資料收集者的偏見, 不管是有意還是無意。 來自 MIT 的畢業生 Joy Buolamwini 正在研究該問題, 他此前曾創辦了演算法正義聯盟(Algorithmic Justice League)防止偏見被編碼植入軟體中, 而這將對種族定性和公民權利帶來巨大的影響。 去年, 在 TED 演講中, 黑人 Buolamwini 講述了當她帶上白人面具時, 一些帶有機器視覺的機器人如何快速地識別她的經歷。

人臉識別演算法中的偏見與彩色電影的發展遙相呼應。20 世紀 50 年代,柯達向照片實驗室發送女模特卡片,以説明他們校準膚色。所有的模特都被稱為雪麗,此後幾十年所有的模特都是白色人種。這意味著,黑人形象常常被曲解,或是未能被真正描述。

如今,通過 Google Art & Culture,穀歌正在挑戰種族偏見和短視思維,因為基於穀歌技術的產品可超越地理、語言和文化的局限,而這是其他媒體無法做到的。應用中的自拍功能不僅僅是愚蠢的模仿,但是要認識到其局限性,這也意味著面對藝術歷史中,藝術作品收集中存在的偏見,並且告訴用戶這樣事實的存在。

一些帶有機器視覺的機器人如何快速地識別她的經歷。

人臉識別演算法中的偏見與彩色電影的發展遙相呼應。20 世紀 50 年代,柯達向照片實驗室發送女模特卡片,以説明他們校準膚色。所有的模特都被稱為雪麗,此後幾十年所有的模特都是白色人種。這意味著,黑人形象常常被曲解,或是未能被真正描述。

如今,通過 Google Art & Culture,穀歌正在挑戰種族偏見和短視思維,因為基於穀歌技術的產品可超越地理、語言和文化的局限,而這是其他媒體無法做到的。應用中的自拍功能不僅僅是愚蠢的模仿,但是要認識到其局限性,這也意味著面對藝術歷史中,藝術作品收集中存在的偏見,並且告訴用戶這樣事實的存在。

同類文章
Next Article
喜欢就按个赞吧!!!
点击关闭提示