您的位置:首頁>科技>正文

機器人也需要醫療服務,未來熱門職業:給機器人看病的心理醫生

人工智慧工程師現在面臨一個問題:他們常常不知道自己研發出來的那個玩意兒在想什麼。

隨著人工智慧日趨複雜和普及,

它的影響力也越來越大。 在判定誰該入獄, 誰能獲得貸款方面, 人工智慧都已經開始施展拳腳。 有人建議, 在一輛自動駕駛汽車發生不可避免的車禍時, 應由人工智慧判斷哪個人的存活幾率最大。

初創企業現在無論做什麼, 都喜歡給自己貼上人工智慧的標籤。 蹭人工智慧名頭的方式越來越狡猾, 請務必謹慎定義。 一般來說, 人們普遍認為人工智慧指的是模仿人類智慧和能力的科技。

人工智慧領域中發展尤為神勇的一個分支是神經網路, 該系統可像人類那樣通過訓練來“學習”, 把學習經驗轉變為類比神經元網路。 最終生成的不是代碼, 而是晦澀難辨、紛亂複雜的數百萬、甚至數十億個人工神經元。 這也解釋了創造現代人工智慧的科學家何以對人工智慧完成任務的方式表示費解。

大多數研究人員一致認為, 瞭解人工智慧是一項迫在眉睫的挑戰。 如果我們不理解人工智慧的工作方式, 那我們如何確定它是否帶有偏見, 又如何預測它可能出現的錯誤?

隨著人工智慧的日趨複雜和普及, 它的影響力也越來越大。 有人建議, 在自動駕駛汽車發生不可避免的碰撞時, 應由人工智慧判斷哪個司機的存活幾率最大。 圖為處於自動駕駛模式的優步車輛。 知道人工智慧什麼時候會有意外之舉, 這一點很重要。

人工智慧會不會是種族主義者?它會不會有一些意想不到的“腦回路”, 引發自動駕駛車輛失靈, 造成車禍?這些我們都無法提前預知。 只有在它做出了無數個決定後, 我們才可能瞭解到它是否有偏見。 知道人工智慧何時會失靈, 何時會有意外之舉, 何時會告訴我們:“對不起, 大衛, 恐怕我辦不到”, 這一點非常重要。

曾在圖片社交網站Pinterest Inc.研究機器學習的軟體工程師Tracy Chou說:“現在的一大問題是,

人們以為人工智慧或機器學習不帶偏見, 十分中立。 之所以有這個印象, 很重要的一個原因是, 大家沒有認識到, 設計人工智慧模式的是人, 給它們選擇訓練資料的也是人。 ”

谷歌翻譯(Google Translate)便是一例。 比如, 讓它將英文單詞“doctor”(醫生)譯成葡萄牙語, 它給出的總是陽性名詞medico, 而不是陰性名詞medica。 讓它翻“nurse”(護士), 它給出的則是陰性名詞enfermeira, 而不是陽性名詞enfermeiro。

陰謀嗎?非也。 用本身就帶有偏見的文學庫來訓練翻譯系統, 後者自然一脈相承地也有了偏見。 若研究人員刪除種族這個類別, 資料一樣帶有偏見, 因為還有其他與種族關係密切的資料(比如一個人在哪裡生活), 那些資料就成了種族的代名詞。

機器人畢竟不是人, 我們不能直接問一個機器人,

你為什麼要做這件事?不錯, 人工智慧可以出色地完成一些片面任務, 而實際上, 即便是那些會說話的機器人, 其自我反思能力跟一隻蟑螂差不了多少。

這是個很難攻克的課題, 美國國防高等研究計畫署(Defense Advanced Research Projects Agency, 簡稱:Darpa)正在為“可解釋人工智慧”專案提供資金支援。

下面說說這個課題為何難以被攻克。在電腦科學領域,要想解決某個問題,有個好辦法是讓工程師編寫一個神經網路(相當於原腦),然後給它灌輸海量資料來訓練它。舉例來說,只要人工智慧有足夠的時間去消化一堆貼有“貓”標籤的圖像,那它就可以挑出貓的照片。

難點在於,神經網路是通過內在的“自我改造”完成學習任務的。人腦基本上也是這樣工作的。就像我們無法理解人腦中約860億個神經元之間的相互連接一樣,人工智慧“思考”的具體方式亦令我們費解。

工程師將上述情況稱為“可解釋性”問題(也就是尚無法解釋),把神經網路稱為“黑匣子”(我們可以模擬和觀察、但無法瞭解其內部的東西。)

Alphabet Inc.子公司DeepMind Technologies Ltd.的研究人員宣佈了一個探索機器心智的獨闢蹊徑之道:像對待孩子一樣對待機器。

也就是說,工程師對人工智慧使用認知心理學技術,這並不是比喻。參與這個項目的DeepMind的科學家巴雷特(David Barrett)說,為了梳理人工智慧的所思所想,DeepMind團隊對人工智慧用的測試題和材料與心理學家對兒童用的一模一樣。

巴雷特說,幾十年來通過認知科學解開人腦之謎的研究如今應用到了機器上,有可能打開一扇認識人工智慧的新大門,讓人工智慧變得更易懂。

DeepMind的研究結果之一是讓我們知道了,至少有一種人工智慧(用來認字的“一次性學習模式”,那些字只給它看一眼)用的是和人類一樣的解決問題的方式,真是令人吃驚。它也是通過形狀來識別物體,哪怕沒人教它這麼做,哪怕識別隨機物體還可以通過顏色、質地或動作等其他方式。以前它的學習方式不為人知。

理解只是我們與人工智慧互動的第一步。機器人心理學的另一半可被形容為“心理治療”,也就是說,改變它的想法。

巴雷特說,工程師在創造人工智慧時,為了找到最棒的那個,一般會做出很多版本,而使用認知心理學能讓工程師擁有更多“實權”,可以選擇那些按照人類希望的方式去“思考”的機器。又或許,人工智慧的思考方式與我們不同,而且更好,這樣我們就可以學點解決問題的新辦法。

結果就是,當我們用人工智慧替代人類決策者時,人工智慧有更上一層樓的潛力,變得更少出錯,更加可靠,因為人工智慧的行為是可衡量的,我們或許可以精確追溯它們做決定的整個過程。

對於人類的行為,我們一直也是這麼要求的(如在法庭上剖析一個商業決定),但眾所周知,人類是不可靠的敘述者。有了機器人後,我們終於迎來了剛正不阿的決策者,它們的所有偏見和一閃而過的衝動都可以被仔細審視和修正。

下面說說這個課題為何難以被攻克。在電腦科學領域,要想解決某個問題,有個好辦法是讓工程師編寫一個神經網路(相當於原腦),然後給它灌輸海量資料來訓練它。舉例來說,只要人工智慧有足夠的時間去消化一堆貼有“貓”標籤的圖像,那它就可以挑出貓的照片。

難點在於,神經網路是通過內在的“自我改造”完成學習任務的。人腦基本上也是這樣工作的。就像我們無法理解人腦中約860億個神經元之間的相互連接一樣,人工智慧“思考”的具體方式亦令我們費解。

工程師將上述情況稱為“可解釋性”問題(也就是尚無法解釋),把神經網路稱為“黑匣子”(我們可以模擬和觀察、但無法瞭解其內部的東西。)

Alphabet Inc.子公司DeepMind Technologies Ltd.的研究人員宣佈了一個探索機器心智的獨闢蹊徑之道:像對待孩子一樣對待機器。

也就是說,工程師對人工智慧使用認知心理學技術,這並不是比喻。參與這個項目的DeepMind的科學家巴雷特(David Barrett)說,為了梳理人工智慧的所思所想,DeepMind團隊對人工智慧用的測試題和材料與心理學家對兒童用的一模一樣。

巴雷特說,幾十年來通過認知科學解開人腦之謎的研究如今應用到了機器上,有可能打開一扇認識人工智慧的新大門,讓人工智慧變得更易懂。

DeepMind的研究結果之一是讓我們知道了,至少有一種人工智慧(用來認字的“一次性學習模式”,那些字只給它看一眼)用的是和人類一樣的解決問題的方式,真是令人吃驚。它也是通過形狀來識別物體,哪怕沒人教它這麼做,哪怕識別隨機物體還可以通過顏色、質地或動作等其他方式。以前它的學習方式不為人知。

理解只是我們與人工智慧互動的第一步。機器人心理學的另一半可被形容為“心理治療”,也就是說,改變它的想法。

巴雷特說,工程師在創造人工智慧時,為了找到最棒的那個,一般會做出很多版本,而使用認知心理學能讓工程師擁有更多“實權”,可以選擇那些按照人類希望的方式去“思考”的機器。又或許,人工智慧的思考方式與我們不同,而且更好,這樣我們就可以學點解決問題的新辦法。

結果就是,當我們用人工智慧替代人類決策者時,人工智慧有更上一層樓的潛力,變得更少出錯,更加可靠,因為人工智慧的行為是可衡量的,我們或許可以精確追溯它們做決定的整個過程。

對於人類的行為,我們一直也是這麼要求的(如在法庭上剖析一個商業決定),但眾所周知,人類是不可靠的敘述者。有了機器人後,我們終於迎來了剛正不阿的決策者,它們的所有偏見和一閃而過的衝動都可以被仔細審視和修正。

Next Article
喜欢就按个赞吧!!!
点击关闭提示