您的位置:首頁>科技>正文

「深度」機器的崛起:演算法會超出我們的控制嗎?

新智元編譯

關於AI及機器學習的應用將在未來數年間引發大規模失業的悲觀預測甚囂塵上。 但事實上這些新技術會生髮新的產品和服務, 從而創造新的就業機會。 可以肯定的是, 電腦科學的深層次應用已經開始干擾我們的生活。 如果我們要想從中獲益但盡可能減少潛在的危害, 必須開始考慮這些技術的應用和監管的方式。

無孔不入的演算法

18世紀蒸汽機的應用打亂了傳統農業勞動者的生活,

推動了城市崛起, 創造了新的產業和新的就業機會, 但醫療、司法等傳統行業改變不大。 而最近一次的工業革命幾乎引發了各行各業的變革。

到目前為止, 機器學習的大部分應用看起來基本上都是良性的, 但是我們大多數人都沒意識到它們正在產生重要的影響。 你的信用卡或借記卡多久沒接受信用查詢了?這類過去頻繁發生的事情現在已經越來越少見。 這是關於我們消費行為和模式機器學習應用的結果。 銀行和信用評級機構對於我們的財務狀況瞭若指掌。 這既便捷又大幅降低了信用盜竊的風險。 這也意味著銀行對我們生活方式的瞭解甚至超過了我們的親人。

市場行銷和消費者服務諮詢企業對我們線上購物(不論是單獨購買還是團購)的狀況保持持續的瞭解。

店鋪會員卡產出的大量關於購買行為的資料幾乎影響了產品設計和定位的每個方面。 我們的穀歌搜索結果和所收到的行銷郵件都受到我們此前線上行為的影響。 Netflix或亞馬遜會自動推薦我們想要觀看的電影, 我們應該感到挺有幫助還是隱私受到侵犯?誰在做這些影片推薦?我們應該在意嗎?

當我們網購時, 我們如何被界定為一個“優質“顧客?賣家甚至比我們自己都瞭解我們的心理特性, 我們會無形中受到他們的獎勵或懲罰嗎?我們以為優質顧客會享受到更優惠的價格。 但是對於賣家而言, 優質顧客指的是那些購買意願強烈,

因而願意為產品付出更高價格的顧客。 因而機器學習會幫助賣家以更高的價格售賣特定的商品給頻繁購買這類商品的顧客。 機器會判斷我們是否是這種願意為喜歡的商品付出更高價格的倒楣蛋, 並幫助賣家充分利用我們這一弱點。

價格浮動不是什麼新鮮事兒, 假期和非假期時段旅行團的價格就很說明問題了。 利用演算法來為產品和服務設定價格浮動體系好處多多。 當能源需求上升時, 可以通過提高收費來限制不必要的用氣、用電以及額外的發電容量。 Uber會在用車需求較高但可用車輛較少的情況下調高價格, 這也會激勵更多司機補充到用車需求較高的區域。 但如果是由於極端天氣導致公共交通體系癱瘓引發用車需求增加,

Uber的提價行為就會被視為一種敲詐。 AI及機器學習對一些傳統行業影響巨大。 醫療和法律則表現出高度的免疫。 在過去20年間, 大多數服務性行業的面貌已經被IT 大幅改變, 而醫療和司法則基本維持原貌。

醫療和司法領域也面臨變革

原因為何?這些職業通常需要長期的培訓和實習。 從業者依靠的是專業技能和專業判斷的應用, 這是他們立足的根本。 但一個重要的問題是, 如何判斷他們的專業性?誰來判斷?常規的答案是由一個具備同等專業素質的從業者來判斷其同行的專業性。 這有些道理, 但還是有問題。 這會催生專業監管機構來自我監管。 這些機構還會制訂出限制性的行業操作規範, 從而營造出一種基於精英主義和保守主義的文化。

專業性通常與一系列特定的價值相關聯。無論是醫生、工程師、律師,政府官員還是神職人員,經驗、專業、信任度、智慧及判斷力都是他們被期待具備的質素。這些質素背後涵蓋的是行業相關的知識及價值,如醫生行醫過程中的“不誤診“。醫生執業是基於醫學證據,而律師執業是基於立法和案例的結合。

但醫療及法律從業者面臨的挑戰是他們的很多工作都可以被學習和應用了 AI 的電腦大幅改進,甚至完全替代。如果專業判斷是這類職業最基本的質素,電腦是否可能完成同樣的工作?不同的判斷可以被區分嗎?我們能看出究竟是人還是機器做出的這些判斷嗎?

在醫療領域,依賴專業判斷的最重要的技能之一就是面對多種不確定因素和不全面的醫學證據做出診療的能力。但是在癌症的案例中,電腦開始建立龐大的科學資料庫,並把這些資料與包含癌症基金資料和臨床治療效果的海量病例相結合。哪個病人不希望自己的治療方案是建立在最佳醫學證據基礎上的呢?在這一意義上,是否腫瘤專家的工作已經終結了呢?

醫學不是純科學。醫學“藝術和神秘”的本質造就了醫師判斷力的第二戰場——提供諮詢。比如關於什麼時候不要治療的建議,關於何時治療可能比疾病更糟糕的建議,以及對患者從多種療法中進行選擇的指導。其中一些可能會使患者感覺更好,即使它們對疾病的進展沒有實際影響。AI 能做到這點嗎?我們希望它做到這點嗎?

法律呢?你更願意被法官、陪審團還是電腦認定為有罪或無罪?刑事法院適用的有罪檢驗是“排除合理性懷疑(beyondreasonable doubt)”。但是對一個人來說是合理的,對另一個人可能是不合理的。而在民事法庭上,“概然性權衡(onthe balance of probabilities)”則更加微妙。

電腦擅長計算概率的平衡。其硬碟可以儲存巨大的罪犯資料庫;處理器可以算出DNA序列或指紋匹配的幾率。我們已經開始留下了廣泛的數字證據蹤跡,因為我們的行為被記錄下來,我們所攜帶的無線和GPS設備陣列標示著我們的位置資訊。與許多證據相關的概率可以互相關聯。原理上,可以量化出“排除合理性懷疑”或“概然性權衡”等概念——可以說前者是99%,後者為51%。這些都是電腦在人類判斷領域能做的貢獻。

責任由誰來負?

說到量刑,你更願意被法官還是電腦做出量刑?大多數人可能會在心中盤算,那種方式的量刑痛苦最小?根據你的性別、種族和社會及經濟狀況的不同,結果也可能不同,因為這些因素以及其他一些因素可能會造成人類判刑時的系統偏見。

事實上,在許多情況下,人類都會表現出系統性的偏見。有證據表明,個體法官和醫生的行為方式存在著系統性的不同。判決你的法官或治療你的醫生,他們的身份可能會導致顯著不同的結果。但是,不僅法官和醫生有系統的偏見——刑事司法程式和提供臨床護理的各個階段都存在偏見。因此,被阻止和被搜查的概率,被監禁或被保釋的可能性,律師對客戶的同情和陪審員對被告的態度,會受到幾個因素的影響。有時這些與被告有罪或無罪的關係很微弱。類似的,你的社交環境、你的全科醫生、你的護士以及許多其他因素都會系統地影響你的醫療結果。

說到量刑,電腦硬碟可以包含以前完整的量刑記錄。然而,機器學習可能會吸收量刑或醫療記錄中隱含的全部偏見,並體現在演算法上。一個例子是如果在Google上搜索“CEO”,顯示的幾乎全是白人男性的圖像,而且顯示的向女性提供的高收入行政職位的廣告遠遠少於男性。

一個解決辦法是永遠不要把電腦的建議置於人類的判斷之上。這將電腦放在了一個顧問的位置上。但如果結果不好,會發生什麼?在癌症治療失敗的情況下,拒絕電腦的治療方案推薦是否會讓醫生遇到麻煩——而那些遵照了建議的醫生,如果結果不好,又會怎樣?而且,最終電腦是否會保留最佳意見,因為偏執的人類總是選擇忽視電腦的建議?

當涉及到主觀判斷時,我們會營造一個將專業規範和價值觀納入電腦演算法的世界嗎?在司法判決中,我們會故意構建一系列偏見。我們可以創造權重規則,以考慮或忽視犯罪分子的苦難童年。判刑可以根據被告的家庭情況加重或減輕——還可以設計為忽略這些情況。簡而言之,在某個持有偏見的人看來,通過電腦進行判罰,對於肇事者或受害者的具體情況似乎總表現為同情或者無情。

那麼,如果我們要充分利用AI和機器學習,我們就需要制定一些機制來瞭解演算法的運行,特別是通過機器學習在電腦系統中自我演化的演算法。我們真的瞭解AlphaGo是如何在圍棋比賽中戰勝人類冠軍的嗎?

讓人類為自己的判斷負責其實是很難的,部分原因是我們對促成人類判斷的認知機制只有最模糊的理解。通過讓那些“聰明”的人充任法官,我們在努力做出正確的判斷。盡力而為。但是在機器學習方面,答案並不明顯。

電腦其實無法對任何事情負責,因為沒有任何機制能讓它負責,除了關閉電力供應或者毀掉硬體。只有人類才能負責。在電腦被使用的情況下,誰將被追究責任?程式師、供應商還是最終用戶?鑒於很難瞭解機器學習過程中自我演化的演算法的確切性質,可能很難完全解釋清楚其運行過程。那麼最終,這會是一個買家責任自負的例子嗎?在這一模型中,電腦給出建議,但決定權在用戶。但是,在一個自主的系統中,又該如何?比如汽車、火車或飛機上?還有一個解決方案是讓人類程式師對其程式設計的效果負責。但這樣的問責如此嚴峻,可能任何人都不會為了大眾的使用而冒險去程式設計了。這可能會讓我們和機器學習的優點失之交臂。無論是涉及航空飛行、橋樑建設還是癌症治療,人類在做生死攸關的決定時都不盡如人意。怎麼會有人在生死問題上去相信那些一知半解的人?

誰來監管?讓機器去監管機器?

那麼讓機器去判斷機器,這可行嗎?當一台電腦發生故障時,由並行系統來接管,和安全緊密相關的電腦系統已經是這樣操作了。通過以車隊的方式去學習,特斯拉以人類無法完成的方式提高了整個車隊的標準。在某些情況下,我們可能需要機器來掌管機器。高速、大量的由演算法進行的金融交易已經依賴於代碼來檢查和規範人類無法涵蓋的大量交易。在大資料、AI和機器學習的世界中,人類監管者需要所謂的“監管科技”作為輔助。

這是一個緊迫的問題。一方面是醫療保健提供商,另一方面是開發和銷售以機器學習演算法為內核的醫療諮詢系統的公司,二者之間的合作關係正在建立。在一個藥物、診斷、醫療設備和療法被高度監管的世界中,這些系統如何組織?世界各地的醫藥監管機構都會遵照相似的協定,發放藥品許可,並讓製造商承擔嚴格的產品責任。但我們知道藥物的化學結構和醫療器械的精確規格,我們不知道機器學習過程中不斷演化的演算法的精確結構和運算。國際監管流程要求醫療演算法受到管制,仿佛它們是醫療設備——可這在現實中意味著什麼?

這些問題應該是可以克服的。我們可能知道醫療藥物的化學結構,但我們也經常不完全瞭解它們是如何工作的。以副作用為代價的藥效證據是藥物監管的指導,這同時與疾病的嚴重程度和藥物的益處相關。機器學習訓練的演算法與藥物不同之處在於,它的結構隨著學習而發生變化。這意味著監管需要更加連續,隨著演算法在臨床實踐中的使用和演變,持續檢查其作用。

醫學和法律已經表現出了對破壞的高度免疫,但AI和機器學習中最為顯著的一些影響,仍能在這些最傳統的行業中體現出來。

但是,也有人強烈主張,隨著藥物的廣泛使用,關於其作用與副作用的資訊越來越多,藥物管制也應該朝著同一個方向前進。這當然算是現代IT 技術應用於醫療系統的好處。

如果我們要應用一些可能對人類造成傷害的演算法,就需要學習如何才能信任它們。對於一輛由電腦系統驅動的汽車,什麼樣的事故率是可以接受的?一方面,與人類駕駛的車輛相比,無人駕駛車輛的任何事故率的減少都是一種進步。然而,如果無人駕駛車輛造成了行人的死亡,即使這是極其罕見的事件,也會引起轟動。

我們可能會認為,比起不完美的人類,我們對演算法應該有高得多的標準。因為演算法會影響專業人士的判斷,它們最終會影響道德和價值觀。應該如何將這些因素納入法規?打個有用的比方,這就像英國開發和使用人類胚胎技術,科學的應用凸顯了人類的價值。

Warnock 委員會的審議促成了人類受精和胚胎管理局(HumanFertilisation and Embryology Authority)的成立。這是一個監管機構,負責思考新興科學,參與公開辯論,並與決定新興技術應用框架的立法者和政策制定者討論有爭議的問題。在機器學習和AI 方面,我們需要類似的東西嗎?皇家學會和英國學院的聯合工作組正在英國考慮這個問題。

政府的關鍵作用是使公民的健康、幸福和安全最大化。因此,政府需要考慮如何最大限度地利用這些技術帶來的好處,並儘量減少潛在的危害。這需要智慧的監管方式,同時還要求企業仔細考慮如何應用這些新技術。這是一個真正呼喚道德思考與實施的領域。

原文地址:http://www.wired.co.uk/article/technology-regulation-algorithm-control

3月27日,新智元開源·生態AI技術峰會暨新智元2017創業大賽頒獎盛典隆重召開,包括“BAT”在內的中國主流 AI 公司、600多名行業精英齊聚,共同為2017中國人工智慧的發展畫上了濃墨重彩的一筆。

點擊閱讀原文,查閱文字版大會實錄

從而營造出一種基於精英主義和保守主義的文化。

專業性通常與一系列特定的價值相關聯。無論是醫生、工程師、律師,政府官員還是神職人員,經驗、專業、信任度、智慧及判斷力都是他們被期待具備的質素。這些質素背後涵蓋的是行業相關的知識及價值,如醫生行醫過程中的“不誤診“。醫生執業是基於醫學證據,而律師執業是基於立法和案例的結合。

但醫療及法律從業者面臨的挑戰是他們的很多工作都可以被學習和應用了 AI 的電腦大幅改進,甚至完全替代。如果專業判斷是這類職業最基本的質素,電腦是否可能完成同樣的工作?不同的判斷可以被區分嗎?我們能看出究竟是人還是機器做出的這些判斷嗎?

在醫療領域,依賴專業判斷的最重要的技能之一就是面對多種不確定因素和不全面的醫學證據做出診療的能力。但是在癌症的案例中,電腦開始建立龐大的科學資料庫,並把這些資料與包含癌症基金資料和臨床治療效果的海量病例相結合。哪個病人不希望自己的治療方案是建立在最佳醫學證據基礎上的呢?在這一意義上,是否腫瘤專家的工作已經終結了呢?

醫學不是純科學。醫學“藝術和神秘”的本質造就了醫師判斷力的第二戰場——提供諮詢。比如關於什麼時候不要治療的建議,關於何時治療可能比疾病更糟糕的建議,以及對患者從多種療法中進行選擇的指導。其中一些可能會使患者感覺更好,即使它們對疾病的進展沒有實際影響。AI 能做到這點嗎?我們希望它做到這點嗎?

法律呢?你更願意被法官、陪審團還是電腦認定為有罪或無罪?刑事法院適用的有罪檢驗是“排除合理性懷疑(beyondreasonable doubt)”。但是對一個人來說是合理的,對另一個人可能是不合理的。而在民事法庭上,“概然性權衡(onthe balance of probabilities)”則更加微妙。

電腦擅長計算概率的平衡。其硬碟可以儲存巨大的罪犯資料庫;處理器可以算出DNA序列或指紋匹配的幾率。我們已經開始留下了廣泛的數字證據蹤跡,因為我們的行為被記錄下來,我們所攜帶的無線和GPS設備陣列標示著我們的位置資訊。與許多證據相關的概率可以互相關聯。原理上,可以量化出“排除合理性懷疑”或“概然性權衡”等概念——可以說前者是99%,後者為51%。這些都是電腦在人類判斷領域能做的貢獻。

責任由誰來負?

說到量刑,你更願意被法官還是電腦做出量刑?大多數人可能會在心中盤算,那種方式的量刑痛苦最小?根據你的性別、種族和社會及經濟狀況的不同,結果也可能不同,因為這些因素以及其他一些因素可能會造成人類判刑時的系統偏見。

事實上,在許多情況下,人類都會表現出系統性的偏見。有證據表明,個體法官和醫生的行為方式存在著系統性的不同。判決你的法官或治療你的醫生,他們的身份可能會導致顯著不同的結果。但是,不僅法官和醫生有系統的偏見——刑事司法程式和提供臨床護理的各個階段都存在偏見。因此,被阻止和被搜查的概率,被監禁或被保釋的可能性,律師對客戶的同情和陪審員對被告的態度,會受到幾個因素的影響。有時這些與被告有罪或無罪的關係很微弱。類似的,你的社交環境、你的全科醫生、你的護士以及許多其他因素都會系統地影響你的醫療結果。

說到量刑,電腦硬碟可以包含以前完整的量刑記錄。然而,機器學習可能會吸收量刑或醫療記錄中隱含的全部偏見,並體現在演算法上。一個例子是如果在Google上搜索“CEO”,顯示的幾乎全是白人男性的圖像,而且顯示的向女性提供的高收入行政職位的廣告遠遠少於男性。

一個解決辦法是永遠不要把電腦的建議置於人類的判斷之上。這將電腦放在了一個顧問的位置上。但如果結果不好,會發生什麼?在癌症治療失敗的情況下,拒絕電腦的治療方案推薦是否會讓醫生遇到麻煩——而那些遵照了建議的醫生,如果結果不好,又會怎樣?而且,最終電腦是否會保留最佳意見,因為偏執的人類總是選擇忽視電腦的建議?

當涉及到主觀判斷時,我們會營造一個將專業規範和價值觀納入電腦演算法的世界嗎?在司法判決中,我們會故意構建一系列偏見。我們可以創造權重規則,以考慮或忽視犯罪分子的苦難童年。判刑可以根據被告的家庭情況加重或減輕——還可以設計為忽略這些情況。簡而言之,在某個持有偏見的人看來,通過電腦進行判罰,對於肇事者或受害者的具體情況似乎總表現為同情或者無情。

那麼,如果我們要充分利用AI和機器學習,我們就需要制定一些機制來瞭解演算法的運行,特別是通過機器學習在電腦系統中自我演化的演算法。我們真的瞭解AlphaGo是如何在圍棋比賽中戰勝人類冠軍的嗎?

讓人類為自己的判斷負責其實是很難的,部分原因是我們對促成人類判斷的認知機制只有最模糊的理解。通過讓那些“聰明”的人充任法官,我們在努力做出正確的判斷。盡力而為。但是在機器學習方面,答案並不明顯。

電腦其實無法對任何事情負責,因為沒有任何機制能讓它負責,除了關閉電力供應或者毀掉硬體。只有人類才能負責。在電腦被使用的情況下,誰將被追究責任?程式師、供應商還是最終用戶?鑒於很難瞭解機器學習過程中自我演化的演算法的確切性質,可能很難完全解釋清楚其運行過程。那麼最終,這會是一個買家責任自負的例子嗎?在這一模型中,電腦給出建議,但決定權在用戶。但是,在一個自主的系統中,又該如何?比如汽車、火車或飛機上?還有一個解決方案是讓人類程式師對其程式設計的效果負責。但這樣的問責如此嚴峻,可能任何人都不會為了大眾的使用而冒險去程式設計了。這可能會讓我們和機器學習的優點失之交臂。無論是涉及航空飛行、橋樑建設還是癌症治療,人類在做生死攸關的決定時都不盡如人意。怎麼會有人在生死問題上去相信那些一知半解的人?

誰來監管?讓機器去監管機器?

那麼讓機器去判斷機器,這可行嗎?當一台電腦發生故障時,由並行系統來接管,和安全緊密相關的電腦系統已經是這樣操作了。通過以車隊的方式去學習,特斯拉以人類無法完成的方式提高了整個車隊的標準。在某些情況下,我們可能需要機器來掌管機器。高速、大量的由演算法進行的金融交易已經依賴於代碼來檢查和規範人類無法涵蓋的大量交易。在大資料、AI和機器學習的世界中,人類監管者需要所謂的“監管科技”作為輔助。

這是一個緊迫的問題。一方面是醫療保健提供商,另一方面是開發和銷售以機器學習演算法為內核的醫療諮詢系統的公司,二者之間的合作關係正在建立。在一個藥物、診斷、醫療設備和療法被高度監管的世界中,這些系統如何組織?世界各地的醫藥監管機構都會遵照相似的協定,發放藥品許可,並讓製造商承擔嚴格的產品責任。但我們知道藥物的化學結構和醫療器械的精確規格,我們不知道機器學習過程中不斷演化的演算法的精確結構和運算。國際監管流程要求醫療演算法受到管制,仿佛它們是醫療設備——可這在現實中意味著什麼?

這些問題應該是可以克服的。我們可能知道醫療藥物的化學結構,但我們也經常不完全瞭解它們是如何工作的。以副作用為代價的藥效證據是藥物監管的指導,這同時與疾病的嚴重程度和藥物的益處相關。機器學習訓練的演算法與藥物不同之處在於,它的結構隨著學習而發生變化。這意味著監管需要更加連續,隨著演算法在臨床實踐中的使用和演變,持續檢查其作用。

醫學和法律已經表現出了對破壞的高度免疫,但AI和機器學習中最為顯著的一些影響,仍能在這些最傳統的行業中體現出來。

但是,也有人強烈主張,隨著藥物的廣泛使用,關於其作用與副作用的資訊越來越多,藥物管制也應該朝著同一個方向前進。這當然算是現代IT 技術應用於醫療系統的好處。

如果我們要應用一些可能對人類造成傷害的演算法,就需要學習如何才能信任它們。對於一輛由電腦系統驅動的汽車,什麼樣的事故率是可以接受的?一方面,與人類駕駛的車輛相比,無人駕駛車輛的任何事故率的減少都是一種進步。然而,如果無人駕駛車輛造成了行人的死亡,即使這是極其罕見的事件,也會引起轟動。

我們可能會認為,比起不完美的人類,我們對演算法應該有高得多的標準。因為演算法會影響專業人士的判斷,它們最終會影響道德和價值觀。應該如何將這些因素納入法規?打個有用的比方,這就像英國開發和使用人類胚胎技術,科學的應用凸顯了人類的價值。

Warnock 委員會的審議促成了人類受精和胚胎管理局(HumanFertilisation and Embryology Authority)的成立。這是一個監管機構,負責思考新興科學,參與公開辯論,並與決定新興技術應用框架的立法者和政策制定者討論有爭議的問題。在機器學習和AI 方面,我們需要類似的東西嗎?皇家學會和英國學院的聯合工作組正在英國考慮這個問題。

政府的關鍵作用是使公民的健康、幸福和安全最大化。因此,政府需要考慮如何最大限度地利用這些技術帶來的好處,並儘量減少潛在的危害。這需要智慧的監管方式,同時還要求企業仔細考慮如何應用這些新技術。這是一個真正呼喚道德思考與實施的領域。

原文地址:http://www.wired.co.uk/article/technology-regulation-algorithm-control

3月27日,新智元開源·生態AI技術峰會暨新智元2017創業大賽頒獎盛典隆重召開,包括“BAT”在內的中國主流 AI 公司、600多名行業精英齊聚,共同為2017中國人工智慧的發展畫上了濃墨重彩的一筆。

點擊閱讀原文,查閱文字版大會實錄

Next Article
喜欢就按个赞吧!!!
点击关闭提示