您的位置:首頁>科技>正文

洪小文:以科學的方式赤裸裸地剖析人工智慧

概要:要想在未來實現人工智慧這項“新”技術的最大化利用, 必須清楚認識到人工智慧到底是什麼, 過去我們做了什麼, 今天能做什麼,

未來又能有什麼新的發展可能。

近兩年來, 人工智慧的發展勢頭越加猛烈, 但在正式進入人工智慧各領域全面開花的階段之前, 它的發展路徑並非一帆風順。 要想在未來實現人工智慧這項“新”技術的最大化利用, 必須清楚認識到人工智慧到底是什麼, 過去我們做了什麼, 今天能做什麼, 未來又能有什麼新的發展可能。

AI的誕生

今天AI已經紅到不能再紅, 包括美國政府、中國政府都非常重視, 甚至都要制定政策和策略。 過去這兩三年可以說是AI的一個爆發點。 當然也有不少關於AI的擔憂。 1950年, 《時代》雜誌就已經提出了AI的某種威脅:“現代人已經適應了擁有超人肌肉的機器, 不過擁有超人大腦的機器還是挺嚇人的。 設計這些機器的人試圖否認他們正創造像他們自己一樣擁有智慧的競爭者。

”( Time, January 23rd, 1950)

今天埃隆·馬斯克說AI要毀滅人類, 但是1950年這種議論就有了。 1950年的時候, 二戰結束才五年。 當年做電腦是二戰時為了造原子彈, 每台電腦都要比一個房間大, 全世界也不超過十台。 這時就已經有人擔憂, 以後造的電腦比人類聰明怎麼辦?我們人類一直就對智慧充滿了期待, 而且非常怕受到傷害。

那麼, 什麼是AI?AI嚴格說起來是61年前的1956年發生的, 但是這個定義今天已經被打破了。 因為我們學AI的人非常清楚, 在學術界AI是有嚴格的定義的, 但在今天, 我可以說任何好的而且可以用電腦實現的事情都變成了AI。 比如, 只要你發明一個新的網路通訊協定或者演算法,

大家覺得你的想法非常好, 最終由電腦實現了, 不就是人工智慧麼?所以, 今天從公眾角度, 只要是一個好東西, 能被機器實現, 就是人工智慧。

AI早期的英雄們

講AI的歷史, 我們可以先從電腦的歷史談起。 電腦是從哪裡來的呢?今年是圖靈獎60周年, 前幾年是圖靈100年的誕辰。 圖靈當然是非常了不起。 他提出一個假設(Church–Turing thesis), 任何可以被計算的東西(用演算法描述)就可以用圖靈機去算。 這個是很了不起的, 雖然無法證明。 所以圖靈在那時就覺得, 電腦應該可以模擬我們大腦裡所有的想法(Computers can simulate any process of formal reasoning), 也就是為什麼在那個時候就有了圖靈測試(Turing Test)。

AI的開山鼻祖們

但是真正AI這個字眼, 要等到1956年, 是在達特茅斯(在波士頓附近的一個很偏僻的小鎮上, 也是常青藤的學校之一)舉行的一個夏季會議上提出的。 當時有五個人參加, MIT的John McCarthy和Marvin Minsky, CMU的Allen Newell和Herbert Simon以及IBM的Arthur Samuel, 這五個人就是AI的開山鼻祖。 這五個人除了Arthur Samuel以外, 全部拿了圖靈獎。 其中, Herbert Simon 在中國也很有名, 他同時拿了圖靈獎和諾貝爾經濟學獎。 他和Allen Newell 兩個人創立了卡內基梅隆大學(CMU)。

其實CMU電腦科學系就是這兩個人為了做AI而成立的。 當時, 他們從美國軍方的國防高等研究計畫署(DARPA, The defense Advanced Research)拿到了一些資助。

John McCarthy是我的師祖, 我的老師Raj Reddy是他的學生。 John McCarthy是真正把人工智慧取名叫做AI的人。 現在公認的AI之父有兩種說法, 大部分的說法是John McCarthy;也有人說是圖靈。 John McCarthy那時是在MIT, 後來到了斯坦福。 所以為什麼說MIT、斯坦福、CMU到今天都是AI的重鎮, 更別說當年了, 因為當時就只有這三家, 都和這些人有關。 Marvin Minsky1956年時還在一個小公司做事, 並不在MIT, 直到1956年開了達特茅斯會議之後, 他才被John McCarthy邀請到了MIT。 結果, John McCarthy後來自己去了斯坦福成立了AI實驗室。

達特茅斯會議以及當時的參會者

我自己是在1984年開始學習AI,我到CMU也是因為AI。當時我讀AI的論文的時候,基本上都讀不懂,有幾個原因。第一個,自己的英文不好,尤其是在當年的條件下;然後AI的論文裡面通常沒有數學公式,都是文字;然後這些文字裡很多是認知心理學,我當時根本讀不懂。後來才覺得讀不懂是因為一些很簡單的東西故意用很複雜的文字寫出來。第二點是,這些文章裡面很多是講腦,我也讀不懂。正是因為讀不懂,也就覺得這個東西非常高深,所以一定要好好學習。

到目前為止,AI總共有八個人,Marvin Minsky (1969)、John McCarthy (1971)、Allen Newell (1975)、Herb Simon (1975)、Edward Feigenbaum (1994)、Raj Reddy (1994)、Leslie Valiant(2010)、Judea Pearl(2011)得了圖靈獎,比例還是蠻高的。前四個人在1975年以前就得了圖靈獎,1975年以後圖靈獎就不頒給AI了。一直到1994年,幾乎20年以後,我老闆和Edward Feigenbaum又得了圖靈獎。最近的Leslie Valiant,Judea Pearl也得了圖靈獎,所以AI又解凍了。所以從得圖靈獎,也能看得出AI研究的冷熱。

1990年前的AI

當時研究什麼呢?其一是知識表示(Knowledge Representation)。我們說隔行如隔山,比如學藥學的、學醫學的、學電腦的、學化學的,每一個行業都是不一樣的,知識表示了之後還要滿足約束條件求一個解(Constraint satisfaction),人很多時候是在做這個事情。當年,搜索也是非常大的一支(包括State-space representation、pruning strategy、深度搜索、 廣度搜索、A* 搜索、beam search、Game tree search、Alpha-beta搜索等),今天的互聯網因此受益很多。雖然當時做這個時他們並沒有想到互聯網,當時想的是如何用搜索來實現智慧。特別是包括Game Tree Search,做電腦下棋這件事情,一直以來都是AI研究的。早期最早叫Checkers,電腦很快打敗了人;後來做象棋,後來做圍棋,如今所有棋手都下不過機器人。

當時甚至有專門的程式設計語言,是為AI而設計的,做AI的人就要學這些語言。有一個叫Lisp,還有一個叫Prolog。我想今天已經沒有人聽過這些東西了,但是在當年是不得了的,做AI都要學這些。

然後還研究什麼呢?認知心理學,非常重要。我們講AI,很多都是認知。有一個詞叫Heruristics,今天已經沒有人用這個詞,其實還真是AI。因為Heruristics是在你沒有資料的時候,或者是很少資料的時候,要用你的直覺來解決問題。

GPS的創造者Herbert Simon和Allen Newell

還有的研究是做認知的模型(Cognition Modeling),比如GPS。當然不是指GPS定位,而是一般求解器(General Problem Solver)。難道是什麼問題都能解麼?Allen Newell和Herbert Simon得圖靈獎就是因為GPS。而且你真的去讀論文的話,很厚。它甚至一語兩思,把這個東西轉一下,去研究行為經濟學也可以,所以Herbert Simon又拿到諾貝爾經濟學獎。

還有一種模式叫產生並測試(Generate and Test),大概的意思就是我們所謂的大膽假設、小心求證。這些認知的模型看起來很神,基本上它就是把難的東西用資料來表示。但是人的確是這樣做的,尤其是到後來,特別是語義、認知,真的很多時候都是在做產生並測試,這個模型本身是沒錯的。

接下來的一項研究要講講我老闆。他拿圖靈獎,一方面是因為他是語音大師(這個可能也有我的一點貢獻);另外一個導致他得圖靈獎的叫做黑板理論。當年搞這些認知的模型的是非常重要的,甚至可以得圖靈獎。

另外有研究涉及Semantic (Frame) 我們今天還在用。今天做Siri,微軟做小冰、小娜,或者做Google助手、百度度秘,用的是這個技術。

還有就是電腦視覺,今天也紅得不得了,比如刷臉。可是在當年的電腦視覺和所謂的機器人,在當時是非常可憐的一個項目。當年都是只能研究玩具樣的問題(toy domain),做的東西都是方塊世界的理解(Block-world understanding):就是有一堆磚塊,磚塊是這樣的狀態,怎麼樣變成那樣的狀態,來回搬磚塊。最多了不起了研究一個桌子。一輩子做電腦視覺,就研究椅子、研究桌子——還不是兩個都研究,只研究一個。當年能做的只有這些東西。

然後是機器學習。機器學習大概是在1980年代開始,但是當時的學習也是研究人怎麼學習,而且有一大堆機器學習。今天的機器學習變得很單一,就是深度神經網路一個,當年有很多種:比如有被告知和指令學習(Learning by being Told & from Instruction);有通過改正學習(Learning by Correcting Mistakes);有基於訓練神經網路的學習(感知器)等等。1990年以前的AI,和今天有很大的不一樣。

達特茅斯會議以及當時的參會者

我自己是在1984年開始學習AI,我到CMU也是因為AI。當時我讀AI的論文的時候,基本上都讀不懂,有幾個原因。第一個,自己的英文不好,尤其是在當年的條件下;然後AI的論文裡面通常沒有數學公式,都是文字;然後這些文字裡很多是認知心理學,我當時根本讀不懂。後來才覺得讀不懂是因為一些很簡單的東西故意用很複雜的文字寫出來。第二點是,這些文章裡面很多是講腦,我也讀不懂。正是因為讀不懂,也就覺得這個東西非常高深,所以一定要好好學習。

到目前為止,AI總共有八個人,Marvin Minsky (1969)、John McCarthy (1971)、Allen Newell (1975)、Herb Simon (1975)、Edward Feigenbaum (1994)、Raj Reddy (1994)、Leslie Valiant(2010)、Judea Pearl(2011)得了圖靈獎,比例還是蠻高的。前四個人在1975年以前就得了圖靈獎,1975年以後圖靈獎就不頒給AI了。一直到1994年,幾乎20年以後,我老闆和Edward Feigenbaum又得了圖靈獎。最近的Leslie Valiant,Judea Pearl也得了圖靈獎,所以AI又解凍了。所以從得圖靈獎,也能看得出AI研究的冷熱。

1990年前的AI

當時研究什麼呢?其一是知識表示(Knowledge Representation)。我們說隔行如隔山,比如學藥學的、學醫學的、學電腦的、學化學的,每一個行業都是不一樣的,知識表示了之後還要滿足約束條件求一個解(Constraint satisfaction),人很多時候是在做這個事情。當年,搜索也是非常大的一支(包括State-space representation、pruning strategy、深度搜索、 廣度搜索、A* 搜索、beam search、Game tree search、Alpha-beta搜索等),今天的互聯網因此受益很多。雖然當時做這個時他們並沒有想到互聯網,當時想的是如何用搜索來實現智慧。特別是包括Game Tree Search,做電腦下棋這件事情,一直以來都是AI研究的。早期最早叫Checkers,電腦很快打敗了人;後來做象棋,後來做圍棋,如今所有棋手都下不過機器人。

當時甚至有專門的程式設計語言,是為AI而設計的,做AI的人就要學這些語言。有一個叫Lisp,還有一個叫Prolog。我想今天已經沒有人聽過這些東西了,但是在當年是不得了的,做AI都要學這些。

然後還研究什麼呢?認知心理學,非常重要。我們講AI,很多都是認知。有一個詞叫Heruristics,今天已經沒有人用這個詞,其實還真是AI。因為Heruristics是在你沒有資料的時候,或者是很少資料的時候,要用你的直覺來解決問題。

GPS的創造者Herbert Simon和Allen Newell

還有的研究是做認知的模型(Cognition Modeling),比如GPS。當然不是指GPS定位,而是一般求解器(General Problem Solver)。難道是什麼問題都能解麼?Allen Newell和Herbert Simon得圖靈獎就是因為GPS。而且你真的去讀論文的話,很厚。它甚至一語兩思,把這個東西轉一下,去研究行為經濟學也可以,所以Herbert Simon又拿到諾貝爾經濟學獎。

還有一種模式叫產生並測試(Generate and Test),大概的意思就是我們所謂的大膽假設、小心求證。這些認知的模型看起來很神,基本上它就是把難的東西用資料來表示。但是人的確是這樣做的,尤其是到後來,特別是語義、認知,真的很多時候都是在做產生並測試,這個模型本身是沒錯的。

接下來的一項研究要講講我老闆。他拿圖靈獎,一方面是因為他是語音大師(這個可能也有我的一點貢獻);另外一個導致他得圖靈獎的叫做黑板理論。當年搞這些認知的模型的是非常重要的,甚至可以得圖靈獎。

另外有研究涉及Semantic (Frame) 我們今天還在用。今天做Siri,微軟做小冰、小娜,或者做Google助手、百度度秘,用的是這個技術。

還有就是電腦視覺,今天也紅得不得了,比如刷臉。可是在當年的電腦視覺和所謂的機器人,在當時是非常可憐的一個項目。當年都是只能研究玩具樣的問題(toy domain),做的東西都是方塊世界的理解(Block-world understanding):就是有一堆磚塊,磚塊是這樣的狀態,怎麼樣變成那樣的狀態,來回搬磚塊。最多了不起了研究一個桌子。一輩子做電腦視覺,就研究椅子、研究桌子——還不是兩個都研究,只研究一個。當年能做的只有這些東西。

然後是機器學習。機器學習大概是在1980年代開始,但是當時的學習也是研究人怎麼學習,而且有一大堆機器學習。今天的機器學習變得很單一,就是深度神經網路一個,當年有很多種:比如有被告知和指令學習(Learning by being Told & from Instruction);有通過改正學習(Learning by Correcting Mistakes);有基於訓練神經網路的學習(感知器)等等。1990年以前的AI,和今天有很大的不一樣。

Next Article
喜欢就按个赞吧!!!
点击关闭提示