您的位置:首頁>科技>正文

警惕演算法歧視!人工智慧怎麼區分對與錯?

怎樣提升人工智慧的“道德水準”

日前, 2017世界機器人大會在京閉幕。 其中最吸引觀眾眼球的是為期5天的機器人博覽會, 各類智慧型機器人讓人大開眼界。 “長了”53根手指的鋼琴機器人, 可以精准地演奏任何通過軟體輸入系統的曲譜, 彈奏能力超越人類極限;身形小巧圓潤、會走路能交談的NAO機器人一亮相, 讓人不禁想到電影《機器管家》裡智慧深情的機器人安德魯;還有可“走”進人體、為人類做手術的達芬奇機器人……

然而, 就在2017世界機器人大會開幕前兩天, 埃隆·馬斯克等116名全球人工智慧和機器人公司創始人發佈聯名公開信, 呼籲聯合國採取行動禁止“殺手機器人”擴散。 公開信指出:“人工智慧武器一旦發展起來, 會令武裝衝突的激烈程度躍升到前所未有的層級, 而且會以人類難以想像的速度進化。 ”

從前後兩則新聞的內容不難看出, 人工智慧具有雙面性。

新一代人工智慧的崛起, 在給人類帶來驚喜和更高生產力的同時, 也引發了不少擔憂。 什麼樣的人工智慧是人類需要的?如何避免人工智慧挑戰人類安全或社會倫理道德?記者就此進行了採訪。

人工智慧怎麼區分“對”與“錯”

人工智慧早已在金融、醫療、廣告、軍事等領域被廣泛應用, 引發人們對人工智慧討論與擔憂的導火索, 是自動駕駛汽車的面世。

當一輛自動駕駛汽車行駛在馬路上, 它需要根據即時路況, 自主作出決策。 紅燈停、綠燈行, 黃燈亮了等一等, 看到行人還要讓行。 如果這些技術性動作都能夠做到, 那當它遇到類似“電車困境”的情景, 會如何選擇呢?

設想一下, 有五位行人突然出現在一輛急駛的自動駕駛汽車前面,

在來不及刹車的情況下, 自動駕駛汽車可以沿著既定路線行駛, 這樣可能會撞死這五名行人;它也可以臨時轉向, 但會撞上旁邊的綠化帶, 這樣可能會讓它的乘客喪命。 此刻, 這輛汽車該如何抉擇?

中國社科院哲學所研究員段偉文指出, 新一代人工智慧是以大資料為驅動, 其核心是演算法。 自動駕駛汽車在行駛中的每一個決策, 都是通過演算法設定好的。 資料和演算法並非完全客觀, 資料的採集、標注和演算法的設計往往負載著價值。 因此, 資料解讀中的價值取向和演算法設計中的倫理考量, 是決定人工智慧區分道德上“對”與“錯”的關鍵。

段偉文進一步指出, 人類都沒有解決的“電車困境”難題, 人工智慧自然也很難給出完美答案。

但是人工智慧有可能基於它的海量資料和迅速反應能力, 避免出現類似“電車困境”的情景。

騰訊研究院未來科技中心高級研究員曹建峰認為, 人們的這些擔憂是因為沒有和人工智慧機器建立信任關係。 “人工智慧製造企業需要通過多種方式建立使用者信任, 比如讓自動駕駛汽車可以向用戶解釋其決策。 只有當用戶知道智慧型機器為什麼這麼做、為什麼不那麼做的時候, 人類與智慧型機器之間的信任才會慢慢建立。 ”

警惕人工智慧演算法歧視

演算法可以決定自動駕駛汽車在遭遇兩難選擇時, 犧牲哪一方。 同樣, 它還可以決定很多。 比如電子科技大學的智慧助困系統, 它通過對學生的勤工儉學、食堂消費、校車、浴室等大量資料記錄的分析,

根據這些外顯行為對學生的經濟狀況進行畫像, 然後決定每月給哪些學生的飯卡自動充值。

智慧助困系統這樣充滿人文關懷的演算法設計, 是“高道德水準”人工智慧的一個經典例子。 然而, 隨著人工智慧的推廣普及, 各種主觀或客觀的演算法歧視越來越引發人們的關注。

“人工智慧決策日益流行, 演算法歧視是一個不容忽視的問題。 ”曹建峰舉例, 在某網路公司的廣告服務中, 男性比女性看到更多高薪招聘廣告;在購物比價服務中, 某網路購物平臺隱瞞了自己及合作夥伴商品的運費, 導致消費者看不到公正的比價結果;某犯罪風險評估演算法系統性地歧視黑人。

基於大資料和演算法的人工智慧,給人類社會生活中的各種事務和決策工作帶來了很大便利,也一直被標榜為客觀、準確、理性。然而,“演算法的設計者們是否可以不偏不倚地將既有法律或道德準則原封不動地編寫進程式,是值得懷疑的。規則代碼化帶來的不透明、不準確,甚至不公平等問題,值得深思和考究。”曹建峰坦言。

段偉文也指出,人工智慧演算法不可避免地要體現設計者與執行者的利益和價值取向。由於演算法的不透明和難以理解,有時候很難看出其中的歧視和不公。因此很多人在毫不知情的情況下,承受著各種微妙的歧視和精准的不公。

曹建峰指出,在涉及信用評估、犯罪風險評估、雇傭評估等項目時,人工智慧決策的結果將影響貸款額度、刑罰輕重、雇傭與否。“當越來越多的決策工作從人類向智慧型機器讓渡,如何確保人工智慧遵循人類倫理變得愈來愈重要。”

探索人工智慧領域立法

“可能對於很多人來說,初識人工智慧,是通過《終結者》《少數派報告》《機器管家》這樣的科幻電影。在這些電影中,機器人會比人類聰明,而且因具有自我意識而最終變得不為人所控制。”段偉文說,這些影片從不同維度折射了人們對智慧化未來的擔憂與思考。

在大多數從事人工智慧研究的專家看來,擬人化地看待人工智慧,甚至擔憂其作為一個新物種毀滅人類,有些杞人憂天了。人工智慧在單一領域可能比人類強很多,比如下棋、運算,但要讓人工智慧像人類一樣能思考、有意識,短期內不太可能實現。

“現階段探討人工智慧倫理,主要是指加強人工智慧設計倫理,旨在保證優先發展造福人類的人工智慧,避免設計和製造出不符合人類價值和利益的人工智慧。”上海交通大學科學史博士陳自富說。

陳自富認為,人工智慧倫理設計有三個方面需要關注。一是演算法設計中的倫理審計,考慮演算法中公平、效率之間的關係,避免使其成為“黑箱”。二是人工智慧涉及的資料的所有權、隱私權和應用開發權的問題。三是人工智慧開發中的倫理或政策限制問題,即哪些可以研發,哪些禁止研發,哪些優先研發等。

“從我國人工智慧發展現狀來看,前兩項都缺乏行業規範和相關標準及法規。”陳自富指出,一些西方國家在資料的所有權、隱私權和應用開發權的主動管理意識起步較早,對於技術開發中與社會各個利益群體之間的溝通,也有穩定的機制和監督方式。在這些方面,我國要奮起直追。

現階段演算法的不透明性是一個普遍的問題。“企業可以對演算法主張商業機密或私有財產,一般使用者對演算法進行審查很困難。”曹建峰指出,在人工智慧日益代替人類進行決策的時代,設計出驗證、知情同意、透明、可責、救濟等方面的機制,對於確保人工智慧研發利用與人類社會的價值倫理一致,至關重要。

“人工智慧產品研發不僅是技術人員的事,還需要法律、倫理、哲學、社會等學科人員參與其中。IBM、穀歌等都在某種程度上建立了跨學科的人工智慧倫理審查委員會,確保人工智慧技術的有益性。建議我國針對人工智慧研發人員,制定相關倫理準則。同時探索人工智慧領域立法。”曹建峰說。

基於大資料和演算法的人工智慧,給人類社會生活中的各種事務和決策工作帶來了很大便利,也一直被標榜為客觀、準確、理性。然而,“演算法的設計者們是否可以不偏不倚地將既有法律或道德準則原封不動地編寫進程式,是值得懷疑的。規則代碼化帶來的不透明、不準確,甚至不公平等問題,值得深思和考究。”曹建峰坦言。

段偉文也指出,人工智慧演算法不可避免地要體現設計者與執行者的利益和價值取向。由於演算法的不透明和難以理解,有時候很難看出其中的歧視和不公。因此很多人在毫不知情的情況下,承受著各種微妙的歧視和精准的不公。

曹建峰指出,在涉及信用評估、犯罪風險評估、雇傭評估等項目時,人工智慧決策的結果將影響貸款額度、刑罰輕重、雇傭與否。“當越來越多的決策工作從人類向智慧型機器讓渡,如何確保人工智慧遵循人類倫理變得愈來愈重要。”

探索人工智慧領域立法

“可能對於很多人來說,初識人工智慧,是通過《終結者》《少數派報告》《機器管家》這樣的科幻電影。在這些電影中,機器人會比人類聰明,而且因具有自我意識而最終變得不為人所控制。”段偉文說,這些影片從不同維度折射了人們對智慧化未來的擔憂與思考。

在大多數從事人工智慧研究的專家看來,擬人化地看待人工智慧,甚至擔憂其作為一個新物種毀滅人類,有些杞人憂天了。人工智慧在單一領域可能比人類強很多,比如下棋、運算,但要讓人工智慧像人類一樣能思考、有意識,短期內不太可能實現。

“現階段探討人工智慧倫理,主要是指加強人工智慧設計倫理,旨在保證優先發展造福人類的人工智慧,避免設計和製造出不符合人類價值和利益的人工智慧。”上海交通大學科學史博士陳自富說。

陳自富認為,人工智慧倫理設計有三個方面需要關注。一是演算法設計中的倫理審計,考慮演算法中公平、效率之間的關係,避免使其成為“黑箱”。二是人工智慧涉及的資料的所有權、隱私權和應用開發權的問題。三是人工智慧開發中的倫理或政策限制問題,即哪些可以研發,哪些禁止研發,哪些優先研發等。

“從我國人工智慧發展現狀來看,前兩項都缺乏行業規範和相關標準及法規。”陳自富指出,一些西方國家在資料的所有權、隱私權和應用開發權的主動管理意識起步較早,對於技術開發中與社會各個利益群體之間的溝通,也有穩定的機制和監督方式。在這些方面,我國要奮起直追。

現階段演算法的不透明性是一個普遍的問題。“企業可以對演算法主張商業機密或私有財產,一般使用者對演算法進行審查很困難。”曹建峰指出,在人工智慧日益代替人類進行決策的時代,設計出驗證、知情同意、透明、可責、救濟等方面的機制,對於確保人工智慧研發利用與人類社會的價值倫理一致,至關重要。

“人工智慧產品研發不僅是技術人員的事,還需要法律、倫理、哲學、社會等學科人員參與其中。IBM、穀歌等都在某種程度上建立了跨學科的人工智慧倫理審查委員會,確保人工智慧技術的有益性。建議我國針對人工智慧研發人員,制定相關倫理準則。同時探索人工智慧領域立法。”曹建峰說。

Next Article
喜欢就按个赞吧!!!
点击关闭提示