谷歌的人工智慧主管並不擔心超級智慧殺手機器人。 相反, John Giannandrea擔心可能潛伏在機器學習演算法裡的危險, 這種演算法每分鐘都要做數百萬個決定。
“真正的安全問題, 如果你想這麼稱呼的話, 就是如果我們給這些系統有偏見的資料, 它們將會有偏見, ”Giannandrea在最近的穀歌會議上說到人類和人工智慧系統之間的關係。
隨著技術在醫學和法律等關鍵領域的傳播, 機器學習的偏見可能會變得越來越重要, 而且隨著越來越多的人沒有深入的技術理解, 他們的任務是部署它。 一些專家警告說, 在許多行業中, 演算法偏見已經很普遍了, 幾乎沒有人在努力識別或改正它(見“有偏見的演算法到處都是, 似乎沒有人在意”)。
Giannandrea補充說:重要的是, 我們要對我們正在使用的培訓資料透明, 並在尋找隱藏的偏見, 否則我們正在構建有偏見的系統。
如果有人試圖向你兜售醫療決策支援的黑盒系統, 你不知道它是如何工作的, 或者是什麼資料被用來訓練它, 那麼我就不會相信它了。
黑盒機器學習模式已經對一些人的生活產生了重大影響。 一個叫做“諾斯波特”的公司提出了一個名為“COMPAS”的系統, 它可以預測被告是否有可能再次犯罪,
COMPAS的運作是保密的, 但ProPublica的一項調查發現, 該模型可能對少數民族有偏見。
穀歌的Giannandrea然而, 它可能並不總是像發佈資料的細節或使用的演算法那樣簡單。
許多最強大的新興機器學習技術都是如此的複雜和不透明, 以至於他們無法仔細的檢查(參見“人工智慧心臟的黑暗秘密”)。 為了解決這個問題, 研究人員正在探索如何使這些系統向工程師和最終使用者提供一些近似。
Giannandrea有很好的理由來強調潛在的偏見。 穀歌是幾家大公司之一, 他們將其雲計算平臺的人工智慧功能推廣到各種業務。
由穀歌組織的幾位元發言者也強調了偏見的問題。 谷歌研究員瑪雅·古普塔(Maya Gupta)描述了她為構建更少不透明的演算法所做的努力,
而伊利諾斯大學電腦科學教授Karrie Karahalios則提出了一項研究, 重點研究了在最常見的演算法中發現偏差是多麼的棘手。 Karahalios指出, 用戶通常不理解Facebook如何過濾他們的新聞提要中顯示的帖子。
雖然這看起來是無害的, 但這是一個清晰的例子, 說明了對一個演算法進行查詢是多麼困難。
特斯拉CEO埃隆·馬斯克Facebook的新聞推送演算法肯定能塑造公眾對社交互動甚至重大新聞事件的看法。
其他演算法可能已經巧妙地扭曲了一個人接受的醫療護理, 或者他們如何在刑事司法系統中得到治療。 這肯定比殺手機器人重要得多, 至少目前如此。
近年來,在一些關於人工智慧構成風險的警告中,Giannandrea無疑是一個理性的聲音。
尤其是埃隆·馬斯克(Elon Musk),最近警告稱,人工智慧比朝鮮更大的威脅,還表示人工智慧可能導致世界第三次大戰。
Giannandrea說:“我反對的是這樣一種假設,即我們將一躍成為某種超級智慧系統,然後讓人類變得過時。”“我理解人們為什麼會擔心這個問題,但我認為這已經太多了。”我只是看不出為什麼會有這樣的技術。”
今日頭條文牛觀點原創,轉載需注明。
近年來,在一些關於人工智慧構成風險的警告中,Giannandrea無疑是一個理性的聲音。
尤其是埃隆·馬斯克(Elon Musk),最近警告稱,人工智慧比朝鮮更大的威脅,還表示人工智慧可能導致世界第三次大戰。
Giannandrea說:“我反對的是這樣一種假設,即我們將一躍成為某種超級智慧系統,然後讓人類變得過時。”“我理解人們為什麼會擔心這個問題,但我認為這已經太多了。”我只是看不出為什麼會有這樣的技術。”
今日頭條文牛觀點原創,轉載需注明。