華文網

人工智慧是一場災難?還是人類自卑和孤獨感的產物?——北郵線上

我們渴望創造一種類人的機器,它與人類的差異不僅僅是金屬和血肉之分,

更重要的,它能超越人類有限的計算能力和總被非理性控制的荒唐意志力,實現“目的 結果”簡單而完美的路徑。

人工智慧,可能就是一場終極的“性冷淡”

“人工智慧會是一場災難嗎?”

人工智慧,可能是人類自卑和孤獨感的產物。

我們渴望創造一種類人的機器,它與人類的差異不僅僅是金屬和血肉之分,更重要的,它能超越人類有限的計算能力和總被非理性控制的荒唐意志力,

實現“目的 結果”簡單而完美的路徑。

而人類不止滿足於此,我們還希望這種機器能夠擁有情感,對我們有所回饋,在孤單時,成為我們的朋友、戀人、親人。

假如有一天人工智慧真的能同時滿足這兩種需求,它孕育的,究竟是希望還是災難?

美國通用人工智慧會議主席本 格策爾、未來學家亞當 福特、人工智慧電影《NEO》聯合導演道格裡西歐 迪瑪西奧和羅伯 米勒,一起和我們談了談這個事兒。

為什麼崇拜人工智慧?

崇拜總是源於自身的無力達成,如本 格策爾所說:“我們談論的是一種新事物,一種遠比人類更智慧、更有能力的東西。”

機器人之戀

人類智慧最大的局限,就在於其與理性往往格格不入的現狀。人類並不是一台純理性機器,我們在進化過程中發展出許多內嵌的認知偏見,它們不斷導致人們在解決問題過程中開小差、犯錯誤。

對於人工智慧來說,“思考”卻不失那麼複雜的事情。機器能夠心無旁騖地接收資訊、進行處理,隨後給出答案。

自人工智慧產生以來,反對派一直以這樣的觀點駁斥它的優越性:人工智慧不具有人的心靈和意識。

然而人的意識並不神秘,丹尼爾 丹尼特在《意識的解釋》中就說:“人類意識只是隨一種特殊的電腦運作而來的副產品。”

圖片來自網路

更關鍵的問題在於:假如意識所伴隨的非理性恰恰會阻礙高效而妥帖地完成任務,

人工智慧為什麼需要它?

如道格裡西歐 迪瑪西奧所說:“人們害怕處理,甚至害怕思考和人工智慧之間的關係,是因為假如出現了一種區別于人的智慧形式,那麼人類智慧本身的必要性就會變得可疑了。”

人工智慧是體貼的小棉襖,

還是人性的屠殺刀?

人工智慧並不是什麼新的概念,古希臘時期就出現過類似的說法。“二戰”後,阿蘭 圖靈被視為第一個提出“會思考的機器”的人,他所創造的“圖靈測試”,至今被用來評價一個機器是否能像人類一樣思考。

值得注意的是,“圖靈測試”從一開始,就在評價機器智慧化的標準中嵌入了“人性”:幽默感,個性特徵,甚至語言風格,一部機器是否智慧,要看它是否足夠像人類。

圖片來自網路

無論服務於大生產還是人類生活,機器智慧的最高標準,就是能夠在不同情境下體貼人的需求。

對郵件進行分類整理的人工智慧,是否能像可靠的秘書一樣幫人節省時間並過濾出重要資訊?無人駕駛的人工智慧是否能在主人心情好時停在斑馬線旁等待一隻小狗過馬路,在著急時則加速沖過去?控制智慧傢俱的人工智慧是否能預知你一天的疲憊,提前燒好一盆恰當溫度的洗澡水?

圖片來自網路

然而問題來了。“高智慧意味著一定程度能夠思考道德問題,但並不意味著它所思考的方向符合人類社會利益。”亞當 福特如是說。

智慧和道德之間的關係一直是心理學家的研究重點,許多試驗表情兩者之間並不具有正相關性。道德與社會社會所培養出的同情心相關,比如街邊流浪漢總會樂於把食物分給他們,在餐廳用餐的中產階級則不會;智商低的人更喜歡旁觀兇殘的刑罰現場,智商高的人則更愛撒謊、更偽善。

圖片來自網路

人工智慧將擁有怎樣的道德觀?“我們無法預測。”本 格策爾說。

“未來,大生產將高度智慧化,”亞當 福特說,“假如人工智慧完全不考慮那些被它們所取代的人類的命運,那他們剩下的機會,真的就不多。”

何去何從?

歷史已經證明,沒有任何焦慮曾成功抵擋未來的到來。

“就像穴居人無法想像現代社會的各種科技發展一樣,”本 格策爾說,“人性就是如此。我們從洞穴裡出來開始耕種、建造第一座城市時,也沒有獲得未來一帆風順的保證。人類總是在做有風險、不可預測的事情,這也是我們不再是叢林裡的猩猩的原因。”

圖片來自網路

“要創造一種能夠保持住人性的人工智慧。”亞當 福特給出了這樣的建議。

假如人工智慧可以達至完美,有誰想要錯過?

在此之前,人類所需要的,也許是從人性、社會制度等各個層面,重新而謹慎地定義“完美”。

2018年學習人智慧到西安北郵線上,幫你找份好工作。

“二戰”後,阿蘭 圖靈被視為第一個提出“會思考的機器”的人,他所創造的“圖靈測試”,至今被用來評價一個機器是否能像人類一樣思考。

值得注意的是,“圖靈測試”從一開始,就在評價機器智慧化的標準中嵌入了“人性”:幽默感,個性特徵,甚至語言風格,一部機器是否智慧,要看它是否足夠像人類。

圖片來自網路

無論服務於大生產還是人類生活,機器智慧的最高標準,就是能夠在不同情境下體貼人的需求。

對郵件進行分類整理的人工智慧,是否能像可靠的秘書一樣幫人節省時間並過濾出重要資訊?無人駕駛的人工智慧是否能在主人心情好時停在斑馬線旁等待一隻小狗過馬路,在著急時則加速沖過去?控制智慧傢俱的人工智慧是否能預知你一天的疲憊,提前燒好一盆恰當溫度的洗澡水?

圖片來自網路

然而問題來了。“高智慧意味著一定程度能夠思考道德問題,但並不意味著它所思考的方向符合人類社會利益。”亞當 福特如是說。

智慧和道德之間的關係一直是心理學家的研究重點,許多試驗表情兩者之間並不具有正相關性。道德與社會社會所培養出的同情心相關,比如街邊流浪漢總會樂於把食物分給他們,在餐廳用餐的中產階級則不會;智商低的人更喜歡旁觀兇殘的刑罰現場,智商高的人則更愛撒謊、更偽善。

圖片來自網路

人工智慧將擁有怎樣的道德觀?“我們無法預測。”本 格策爾說。

“未來,大生產將高度智慧化,”亞當 福特說,“假如人工智慧完全不考慮那些被它們所取代的人類的命運,那他們剩下的機會,真的就不多。”

何去何從?

歷史已經證明,沒有任何焦慮曾成功抵擋未來的到來。

“就像穴居人無法想像現代社會的各種科技發展一樣,”本 格策爾說,“人性就是如此。我們從洞穴裡出來開始耕種、建造第一座城市時,也沒有獲得未來一帆風順的保證。人類總是在做有風險、不可預測的事情,這也是我們不再是叢林裡的猩猩的原因。”

圖片來自網路

“要創造一種能夠保持住人性的人工智慧。”亞當 福特給出了這樣的建議。

假如人工智慧可以達至完美,有誰想要錯過?

在此之前,人類所需要的,也許是從人性、社會制度等各個層面,重新而謹慎地定義“完美”。

2018年學習人智慧到西安北郵線上,幫你找份好工作。