您的位置:首頁>正文

機器從可計算、到人工智慧1.0、2.0、3.0、4.0

世間萬物都是從無到有, 從簡單到複雜, 我們的地球如此, 地球上的生命如此, 生命具有智慧也是如此。

目錄

1 機器可計算的理論發展

2 機器可計算的硬體發展

3 人工智慧

4 人工智慧1.0-開端

5 人工智慧2.0-專家系統(資料庫)

6 人工智慧3.0-機器學習(互聯網)

7 人工智慧4.0-深度演習(大數據)

8 人工智慧大事記

1 機器可計算的理論發展

17世紀, 德國數學家、哲學家萊布尼茨(Gottfried Wilhelm Leibniz, 1646-1716)曾經設想過能不能創造一種“通用的科學語言”, 可以把推理過程象數學一樣用公式來進行計算, 從而得出正確的結論。 由於當時的社會條件, 他的想法並沒有實現。

但是他的思想卻是現代數理邏輯部分內容的萌芽, 從這個意義上講, 萊布尼茨可以說是數理邏輯的先驅。

1847年, 英國數學家布林(George Boole, 1815-1864)發表了《邏輯的數學分析》, 建立了“布林代數”, 並創造一套符號系統, 利用符號來表示邏輯中的各種概念。 布林建立了一系列的運算法則, 利用代數的方法研究邏輯問題, 初步奠定了數理邏輯的基礎。

1913年, 英國哲學家伯特蘭·羅素(Bertrand Russell )和其老師懷特海(Alfred North Whitehead)基於紳雷格的系統共同出版了巨著《數學原理》, 兩人對數學的基礎進行了形式化的描述。 這種描述成功地激發了德國數學家大衛 ·希爾伯特的推理思維。 基於這種描述, 希爾伯特向20世紀30年代的數學家提出了一個難題:能否將所有的數學推理形式化?1931年奧地利裔美國著名數學家哥德爾提出了“不完備性定理”,

這個定理最先解答了希爾伯特留下的數學問題:通過推理形式是可以將數學推理形式化的。

1936年, 美國數學家阿隆佐·邱奇(Alonzo Church, 1903-1995)和他的學生斯蒂芬·科爾·克萊尼創建了稱為λ演算(lambda calculus)的方法來定義可計算函數。

1936年, 24歲的英國數學家、邏輯學家圖靈(Alan Mathison Turing, 1912-1954)發表著名論文《論可計算數及其在密碼問題的應用》, 提出了“理想電腦”, 後人稱之為“圖靈機”。 圖靈通過數學證明得出理論上存在“通用圖靈機”, 數位信號足以描述任何形式的計算, 這為可計算性的概念提供了嚴格的數學定義, 圖靈機成為現代通用數位電腦的數學模型, 它證明通用數位電腦是可以製造出來的。

邱奇的λ演算和“圖靈機”都表明:第一是數學邏輯具有一定的局限性,

第二是他們證明了任何形式的數學推理在第一條的限制下都擁有機械化的可能性。

1938年, 美國數學家香農(Claude Elwood Shannon, 1916-2001)在MIT獲得電氣工程碩士學位, 碩士論文題目是《A Symbolic Analysis of Relay and Switching Circuits》(繼電器與開關電路的符號分析)。 當時他已經注意到電話交換電路與布林代數之間的類似性, 即把布林代數的“真”與“假”和電路系統的“開”與“關”對應起來, 並用1和0表示。 於是他用布林代數分析並優化開關電路, 這就奠定了數位電路的理論基礎。 哈佛大學的Howard Gardner教授說, “這可能是本世紀最重要、最著名的一篇碩士論文。 ”

1938年, 德國工程師楚澤(Konrad Zuse, 1910-1995)完成了一台可程式設計數位電腦Z-1。 楚澤認為電腦最重要的部分不一定是計算本身,

而是過程和計算結果的傳送和儲存。

20世紀50年代馮·諾依曼(John von Neumann, 1903~1957)提出了五大部件和存儲程式概念, 電腦由輸入裝置、記憶體、控制器、運算器、輸出設備組成, 指令和資料可一起放在記憶體, 程式按順序自動執行。 於1945年6月寫出了長達101頁的《關於離散變數自動電子電腦的草案》, 提出了程式和資料一樣存放在電腦內記憶體中, 並給出了通用電子電腦的基本架構, 後來這些思想被稱為“馮·諾依曼結構”。

2 機器可計算的硬體發展

1822年, 英國數學家、發明家查理斯·巴貝爾Babbage設計了分析機。 最開始的電腦可不是電子的, 而是機械的。

1831年, 美國科學家約瑟夫·亨利 (Joseph Henry 1797-1878)製造了一個電磁鐵, 繼而利用磁鐵製作了繼電器。 繼電器是在機電式電腦第一個派上用場的電氣元件。

但電的作用不是作為信號而是電磁感應原理的利用。

1903年, 弗萊明在真空中加熱的電絲(燈絲)前加了一塊板極, 從而發明了第一隻電子管。 他把這種裝有兩個極的電子管稱為二極體。 電子管的開關特性做為電腦的邏輯部件, 開關切換速度當然比繼電器來得更快。 此時電真正做為信號的功能而存在。

1942年, 美國人阿坦那索夫和貝利設計了完全採用真空管作為存儲與運算元件的電腦ABC(Atanasoff Berry Computer)。

1947年12月, 美國貝爾實驗室的肖克利、巴丁和布拉頓組成的研究小組, 研製出一種點接觸型的鍺電晶體, 電晶體特別適合用作開關。

1958年, 仙童公司Robert Noyce與德儀公司基爾比間隔數月分別發明了積體電路, 把構成具有一定功能的電路所需的半導體、電阻、電容等元件及它們之間的連接導線, 經過氧化、光刻、擴散、外延、蒸鋁等半導體製造工藝,全部集成在一小塊矽片上,然後焊接封裝在一個管殼內的電子器件。

電腦邏輯部件的總體趨勢是體積越來越小,性能越來越高,價格越來越低。

3 人工智慧

人工智慧的定義可能眾說紛紜,但本質的東西應該還是演算法、資料、硬體。如果有海量的資料、硬體超強的處理能力、合適的演算法和,機器智慧就會有很多的可能。

人工智慧是電腦學科的一個分支,二十世紀七十年代以來被稱為世界三大尖端技術之一(空間技術、能源技術、人工智慧)。也被認為是二十一世紀三大尖端技術(基因工程、納米科學、人工智慧)之一。

人工智慧領域的研究包括機器人、語言識別、圖像識別、自然語言處理、專家系統、機器視覺,指紋識別,人臉識別,視網膜識別,虹膜識別,掌紋識別,自動規劃,智慧搜索,定理證明,博弈,自動程式設計,智慧控制,遺傳程式設計等。

以智慧型機器是否能推理(REASONING)和解決問題(PROBLEM_SOLVING)並擁有自主意識為標準,分為強人工智慧(BOTTOM-UP AI)和弱人工智慧(TOP-DOWN AI)。

4 人工智慧1.0-開端

人類對人工智慧最基本的假設就是人類的思考過程可以機械化。

1956年夏季,以麥卡賽、明斯基、羅切斯特和申農等為首的一批有遠見卓識的年輕科學家在一起聚會,共同研究和探討用機器模擬智慧的一系列有關問題,並首次提出了“人工智慧”這一術語,它標誌著“人工智慧”這門新興學科的正式誕生。

人工智慧1.0時代,人工智慧主要是通過推理和搜索等簡單的規則來處理問題,能夠解決一些諸如迷宮、梵塔問題等所謂的“玩具問題”。

5 人工智慧2.0-知識庫系統(資料庫)

電腦程式設計的快速發展極大地促進了人工智慧領域的突飛猛進,隨著電腦符號處理能力的不斷提高,知識可以用符號結構表示,推理也簡化為符號運算式的處理。這一系列的研究推動了“知識庫系統”(或“專家系統”)的建立,例如愛德華 ·費根鮑姆(ED Feigenbaum)等人在1965年開發的專家系統程式DENDRAL。

專家系統的缺陷在於知識描述非常複雜,且需要不斷升級。

6 人工智慧3.0-機器學習(互聯網)

在激增資料的支援下,人工智慧從推理、搜索昇華到知識獲取階段後,最後進化到機器學習階段。早在1996年,人們就已經定義了機器學習,從經驗學習中如何改進具體演算法的性能。到了1997年,隨著互聯網的發展,機器學習被進一步定義為“一種能夠通過經驗自動改進電腦演算法的研究”。

早期的人工智慧以推理、演繹為主要目的,但是隨著研究的深入和方向的改變,人們發現工人智慧的核心應該是使計算機具有智慧,使其學會歸納和綜合總結,而不僅僅是演繹出已有的知識。需要能夠獲取新知識和新技能,並識別現有知識。

機器學習的基本結構可能表述為:環境向學習系統提供資訊,而學習系統利用這些資訊修改知識庫。在具體的應用中,學習系統利用這些資訊修改知識庫後,執行系統就能提高完成任務的範圍和效能,執行系統根據知識庫完成任務之後,還能把執行任務過程中獲得的資訊回饋給學習系統,讓學習系統得到進一步擴充。

機器學習資訊迴圈

簡單一點說,3.0的人工智慧相對於2.0來說,可以自主更新或升級知識庫。機器學習就是在對海量資料進行處理的過程中,自動學習區分方法,以此不斷消化新知識。

機械學習的主要目的是為了從使用者和輸入資料等處獲得知識,從而可以幫助解決更多問題,減少錯誤,提高解決問題的效率。對於人工智慧來說,機械學習從一開始就很重要。1956年,在最初的達特茅斯夏季會議上,雷蒙德索洛莫諾夫寫了一篇關於不監視的概率性機械學習:一個歸納推理的機械。

通常,“機器學習”的數學基礎是“統計學”、“資訊理論”和“控制論”。還包括其他非數學學科。這類“機器學習”對“經驗”的依賴性很強。電腦需要不斷從解決一類問題的經驗中獲取知識,學習策略,在遇到類似的問題時,運用經驗知識解決問題並積累新的經驗,就像普通人一樣。我們可以將這樣的學習方式稱之為“連續型學習”。但人類除了會從經驗中學習之外,還會創造,即“跳躍型學習”。這在某些情形下被稱為“靈感”或“頓悟”。一直以來,電腦最難學會的就是“頓悟”。或者再嚴格一些來說,電腦在學習和“實踐”方面難以學會“不依賴於量變的質變”,很難從一種“質”直接到另一種“質”,或者從一個“概念”直接到另一個“概念”。正因為如此,這裡的“實踐”並非同人類一樣的實踐。人類的實踐過程同時包括經驗和創造。

根據學習環境不同,學習方式可分為監督學習和非監督學習。

6.1 監督學習(supervised learning)

監督學習,即在機械學習過程中提供對錯指示。一般實在是資料組中包含最終結果(0,1)。通過演算法讓機器自我減少誤差。這一類學習主要應用於分類和預測 (regression & classify)。監督學習從給定的訓練資料集中學習出一個函數,當新的資料到來時,可以根據這個函數預測結果。監督學習的訓練集要求是包括輸入和輸出,也可以說是特徵和目標。訓練集中的目標是由人標注的。常見的監督學習演算法包括回歸分析和統計分類。

6.2 非監督學習(unsupervised learning)

非監督學習又稱歸納性學習(clustering)利用K方式(Kmeans),建立中心(centriole),通過迴圈和遞減運算(iteration&descent)來減小誤差,達到分類的目的。

機器學習的核心是資料分類,其分類的方法(或演算法)有很多種,如決策樹、正則化法、樸素貝葉斯演算法、人工神經網路等。

對於機器學習來說,需要解決如何讓機器自己去選擇合適的特徵量的問題。

7 人工智慧4.0-深度學習(大資料)

大腦是一個龐大的記憶系統,它儲存著在某種程度上反映世界真實結構的經驗,能夠記憶事件的前後順序及其相互關係,並依據記憶做出預測。形成智慧、感覺、創造力以及知覺。

人的大腦通過神經元傳輸資訊,數量巨大的神經元構成了神經網路。當某一個神經元接收到刺激信號後,就會傳輸給另一個神經元,這樣逐層傳遞到大腦進行處理後就形成了感知。就好比感測器,當刺激達到某一個值時,感測器就會形成反應;如果沒有達到這個值,就不會形成反應。

深度學習的核心計算模型是人工神經網路。1943年,神經科學家沃倫麥卡洛克(Warren McCulloch)和沃爾特 彼茨(Walter Pitts)提出了一種大膽假說,描述了人類神經節沿著網狀結構傳遞和處理資訊的模型。這一假說一方面被神經科學家用於研究人類的感知原理;另一方面則被電腦科學家借鑒,用於人工智慧的相關研究。後者也被學術界稱為人工神經網路。

人工神經網路就是依照神經元傳遞資訊的方法來對資料進行分類的,我們可以在傳遞的過程中設置權重,如果資料小於這個權重,那麼就不能傳遞到下一個“神經元”中;反之,如果資料大於這個權重,則繼續往下傳遞,在這樣不斷傳遞的過程中,資料就會被分類到各個維度中。

神經網路是一種運算模型,由大量的節點(或稱神經元)之間相互聯接構成。每個節點代表一種特定的輸出函數,稱為激勵函數(activation function)。每兩個節點間的連接都代表一個對於通過該連接信號的加權值,稱之為權重,這相當於人工神經網路的記憶。網路的輸出則依網路的連接方式,權重值和激勵函數的不同而不同。最終整個神經網路會在不斷篩選和傳輸的過程中逐步逼近自然界中存在的某種演算法或者邏輯思維,而網路自身通常都是對自然界某種演算法或者函數的逼近,也可能是對一種邏輯策略的表達。

20世紀40年代,唐納德 赫布(Donald Hebb)深度將人工神經網路用於機器學習,創建出早期的“赫布型學習”(Hebbian Learning)理論。

深度學習這個術語是從1986年起開始流行開為的,但是,當量的深度學習理論還無法解決網路層次加深後帶來的諸多問題,電腦的計算能力也遠遠達不到深度神經網路的需要。更重要的是,深度學習賴以施展威力的大規模海量資料還沒有完全準備好。

同機器學習方法一樣,深度機器學習方法也有監督學習與無監督學習之分.不同的學習框架下建立的學習模型很是不同.例如,卷積神經網路(Convolutional neural networks,簡稱CNNs)就是一種深度的監督學習下的機器學習模型,而深度置信網(Deep Belief Nets,簡稱DBNs)就是一種無監督學習下的機器學習模型。

2006年,深度學習泰斗傑佛瑞·辛頓及其合作者用一篇名為《一種深度置信網路的快速學習演算法》的論文宣告了深度學習時代的到來。通過教授電腦深度學習,就有可能解決深層機構優化的問題。另外,深度學習結合多層結構學習演算法就能利用空間的相對關係減少參數的數量,以此來提高電腦的訓練性能。

深度學習是機器學習中一種基於對資料進行表徵學習的方法。觀測值(例如一幅圖像)可以使用多種方式來表示,如每個圖元強度值的向量,或者更抽象地表示成一系列邊、特定形狀的區域等。而使用某些特定的表示方法更容易從實例中學習任務(例如,人臉識別或面部表情識別)。深度學習的好處是用非監督式或半監督式的特徵學習和分層特徵提取高效演算法來替代手工獲取特徵。

深度學習是機器學習領域中的一種演算法,它能類比人腦神經元的工作方式,建造機器神經網路。具有深度學習能力的電腦網路能夠收集、處理並分析龐大的資料,最終能通過自主學習來實現圖像和語音辨識等智慧行為。

在圖像識別領域,深度學習的優勢在於能夠自動識別牲量(區別於人工輸入特徵量)。互聯網將全世界連接到了一起,與此同時也讓海量的資料連接到了一起,而深度學習正是依託這些海量資料才能實現自我尋找特徵量、建立新的學習模型。

我們從原來人腦設計參數的人工智慧轉變為由大資料驅動的人工智慧,實際上是在某些領域取得的技術突破,主要是在某個特定的領域超過了人。比如說,最早用深度學習做出來的語音辨識系統大獲成功。在人臉識別、圖像分類、阿爾法狗、自動駕駛、醫療技術等幾個方面都有著很大程度的突破。這些學術方面的突破,使電腦超越了人類以後,就相當於在垂直領域邁過了一道檻。而這道檻之後,人工智慧技術終於可以落地了,終於可以替換一些人工成本,來説明產業提高效率了。在某個特定的領域可以把人打敗。這其實並不神奇,因為汽車早已在賽跑的領域打敗了人類。可以說,在某個特定領域打敗人類不是什麼了不起的事。但是人們普遍認為,人工智慧就是機器人,它可以超越人腦並控制人類。但事實上,這是非常遙遠的事情。真正在一線做人工智慧研發的人是不敢這麼想的,只是致力於讓機器做事先設計好的特定任務,絕不會有另外的任務附加給它。我們經常開玩笑說,李世石在跟阿爾法狗下棋之前,也許早已在賭博公司下了賭注,賭自己輸。但是,阿爾法狗想不到這一點,所以儘管它以為自己贏了,但實際上它輸了。

現在人工智慧、深度學習的門檻變得比較低,就是因為它有了開源系統。利用這套系統就可以訓練出一個模型,可以做一些應用。

8 人工智慧大事記

1308年:加泰羅尼亞詩人、神學家雷蒙·盧爾(Ramon Llull)發表作品《Ars generalis ultima》(意思就是最終的綜合藝術),詳細解釋了自己的理論:用機械方法從一系列概念組合中創造新知識。

1666年:數學家和哲學家萊布尼茨(Gottfried Leibniz)出版《On the Combinatorial Art》,他繼承了雷蒙·盧爾的思想,萊布尼茨認為人類的所有創意全都來自於少量簡單概念的結合。

1726年:英國小說家喬納森·斯威夫特(Jonathan Swift)出版《格列佛遊記》,他在書中描述了一台名叫“Engine”的機器,這台機器放在Laputa島。斯威夫特描述稱:“運用實際而機械的操作方法來改善人的思辨知識。”“最無知的人,只要適當付點學費,再出一點點體力,就可以不借助于任何天才或學力,寫出關於哲學、詩歌、政治、法律、數學和神學的書來。”

1763年:湯瑪斯·貝葉斯(Thomas Bayes)創造一個框架,可以用來推理事件的可能性。最終貝葉斯推理方法成為機器學習的主要理論。

1854年:喬治·布林(George Boole)認為邏輯推理可以系統進行,就像解答方程式一樣。

1898年:在麥迪森廣場花園舉行的電氣展覽會上,尼古拉·特斯拉(Nikola Tesla)展示世界第一艘無線電遙控船。按照特斯拉的描述,船隻擁有“借來的思想”。

1914年:西班牙工程師萊昂納多·托裡斯·克維多(Leonardo Torres y Quevedo)展示世界上第一台可以自動下象棋的機器,不需要人類干預,機器可以自動下國際象棋。

1921年:捷克作家卡雷爾·恰佩克(Karel Čapek)在他的作品《Rossum’s Universal Robots》中首次使用了“機器人(Robot)”一詞,這個詞彙來自於“robota(工作)”。

1925年:無線電設備公司Houdina Radio Control展示世界第一輛用無線控制的無人駕駛汽車,汽車可以在紐約街道上行駛。

1927年:科幻電影《大都會》(Metropolis)上映。在影片中,一位名叫Maria的農村女孩是機器人,她在2026年的柏林引起騷亂。這是機器人第一次出現在螢幕上,後來《星球大戰》中的“C-3PO”受到它的啟發。

1929年:西村真琴(Makoto Nishimura)設計出“Gakutensoku”,在日語中,該名稱的意思就是說“向自然之法學習”,它是日本製造的第一個機器人。機器人可以改變面部表情,可以通過空氣壓力機制移動頭部和手部。

1943年:沃倫·麥卡洛克(Warren S. McCulloch)和沃爾特·皮茨(Walter Pitts)在《數學生物物理學公告》上發表論文《神經活動中內在思想的邏輯演算》(A Logical Calculus of the Ideas Immanent in Nervous Activity)。這篇論文對後世影響巨大,它討論了理想化、簡化的人工神經元網路,以及它們如何形成簡單的邏輯功能,後來誕生的電腦“神經網路”(以及最後出現的深度學習)受到它的啟發,所謂的“模擬大腦”這一說法也來自於它。

1948年,美國應用數學家諾伯特·維納(Norbert Wiener)(1894年-1964-)出版了他的奠基性著作《控制論》,標誌著這門新興的邊緣學科的誕生。該書的副標題是“關於在動物或機器中控制或通訊的科學”,這就是他對控制論所下的定義。cybernetics一詞來源於希臘文kubernan,原意為steersman,即“掌舵人”,轉意是“管理人的藝術”。

1949年,艾德蒙·伯克利(Edmund Berkeley)出版《Giant Brains: Or Machines That Think》,他在書中寫道:“最近出現許多消息,談論的主題是奇怪的巨型機器處理資訊,速度極快,技能很強……這種機器與大腦相似,由硬體和線纜組成,而不是血肉和神經……機器可以處理資訊,可以計算、可以得出結論、可以選擇,還可以根據資訊執行合理操作。總之,這台機器可以思考。”

1949年:唐納德·赫布(Donald Hebb)發表《Organization of Behavior: A Neuropsychological Theory》,他提出一種理論:根據猜想學習,這些猜測與神經網路高度關聯,隨著時間的推移,神經元突觸會得到強化或者削弱。

1950年:克勞德·香農(Claude Shannon)發表《程式設計實現電腦下棋》(Programming a Computer for Playing Chess),這篇論文第一次開始關注電腦象棋程式的開發問題。

1950年:阿蘭·圖靈(Alan Turing)發表論文《Computing Machinery and Intelligence》,他在論文中談到了“模仿遊戲”這一概念,也就是廣為人知的“圖靈測試”。

1951年:馬文·明斯基(Marvin Minsky)和迪恩·愛德蒙(Dean Edmunds)開發了SNARC,它是“Stochastic Neural Analog Reinforcement Calculator”的簡稱,意思是“隨機神經網路類比加固計算器”。SNARC是第一個人工神經網路,用3000個真空管模擬40個神經元的運行。

1952年:亞瑟·薩繆爾(Arthur Samuel)開發出第一個電腦跳棋程式,它也是世界上第一個可以自己學習的程式。

1955年8月31日:專家在一份提案中首次提出“AI(人工智慧,artificial intelligence)”這一術語,提案建議由10名專家組成小組,花2個月時間研究人工智慧。這份提案是達特茅斯學院約翰·麥卡錫(John McCarthy)、哈佛大學馬文·明斯基(Marvin Minsky)、IBM納旦尼爾·羅徹斯特(Nathaniel Rochester)和貝爾電話實驗室克勞德·香農(Claude Shannon)聯合提交的。1956年7月和8月,討論會正式舉行,這次會議成為人工智慧誕生的標誌。

1955年12月:赫伯特·西蒙(Herber t Simon)和艾倫·紐厄爾(Allen Newell)開發了“Logic Theorist”,它是世界上第一個AI項目,在羅素和懷特海《數學原理》第二章有52個定理,AI可以證明其中的38個。

1957年:弗蘭克·羅森布拉特(Frank Rosenblatt)開發了“Perceptron”,它是一個人工神經網路,可以利用兩層電腦學習網路識別模式。《紐約時報》刊文稱,Perceptron是電子電腦的雛形,美國海軍預測未來它可以自己行走、可以說話、可以看見東西、可以書寫,還可以自己生產自己,能感知到自己的存在。《紐約客》認為它是一台“了不起的機器……可以思考。”

1958年:約翰·麥卡錫(John McCarthy)開發了程式語言Lisp,它最終成為AI研究最流行的程式語言。

1959年:亞瑟·薩繆爾(Arthur Samuel)創造了“機器學習”這一術語,他在論文中談到了一個程式,該程式可以讓電腦學習如何下棋,棋藝可以超越程式開發者。

1959年:奧利弗·賽弗裡奇(Oliver Selfridge)發表論文《Pandemonium: A paradigm for learning》,他在論文中描述了一種處理模型,不需要預先設定,電腦就可以通過該模型識別新模式。

1959年:約翰·麥卡錫(John McCarthy)發表論文《Programs with Common Sense》。他在論文中談到了Advice Taker,這是一個程式,可以通過控制正式語言中的句子解決問題,它的終極目標是開發出可以像人類一樣從過往經歷不斷學習的程式。

1961年:第一台工業機器人Unimate在新澤西州通用汽車的組裝線上投入使用。

1961年:詹姆斯·斯拉格(James Slagle)開發了SAINT(符號自動積分程式),這套啟發式程式可以有效解決大學一年級微積分符號整合問題。

1964年:丹尼爾·鮑勃羅(Daniel Bobrow)完成論文《Natural Language Input for a Computer Problem Solving System》,這是他在MIT的博士論文。鮑勃羅還開發了STUDENT,也就是自然語言理解電腦程式。

1965年:赫伯特·西蒙(Herbert Simon)預測在20年內,機器可以做人類所能做的事。

1965年:赫伯特·德雷福斯(Herbert Dreyfus)發表《Alchemy and AI》,他認為智力與電腦是不一樣的,有些限制無法打破,直接導致AI無法進步。

1965年,古德(I.J.Good)在《Speculations Concerning the First Ultraintelligent Machine》寫道:“第一台超智慧型機器將是人類的最終發明,機器足夠溫順,完全可以告訴我們如何控制它。”

1965年:約瑟夫·維森班(Joseph Weizenbaum)開發了ELIZA,這是一個交互程式,它可以根據任何主題進行英文對話。一些人想將人類的感覺賦予電腦程式,對此維森班感到很震驚,他開發程式只是為了證明機器與人的交流很膚淺。

1965年:費根鮑姆(Edward Feigenbaum)、布魯斯·布坎南(Bruce G.Buchanan)、萊德伯格(Joshua Lederberg)和卡爾·傑拉西(Carl Djerassi)在斯坦福大學研究 DENDRAL,它是第一個專家系統,能夠自動做決策,解決有機化學問題,它的目的是研究假說資訊,構建科學經驗歸納模型。

1966年:機器人Shakey誕生,它是第一款基於通用目的開發的移動機器人,可以按邏輯形成自有動作。1970年,《生活》雜誌稱它是“第一個電子人“。文章還引用電腦科學家馬文•明斯基(Marvin Minsky)話稱:”3到8年之內,機器的智力就可以達到普通人的平均水準。“

1968年:電影《2001太空漫遊》上映,電影中的角色Hal就是一台有感知能力的電腦。

1968年:特裡·維諾格拉德(Terry Winograd)開發了SHRDLU,它是一個理解早期語言的電腦程式。

1969年:亞瑟·布萊森(Arthur Bryson)和何毓琦(Yu-Chi Ho)在論文中描述稱,反向傳播可以作為多階段動態系統優化方法使用。這是一種學習演算法,它可以應用於多層人工神經網路,2000-2010年深度學習之所以大獲成功離不開它的啟發,在後來的日子裡,電腦性能突飛猛進,可以適應巨大網路的訓練。

1969年:馬文·明斯基(Marvin Minsky)和西摩爾·帕普特(Seymour Papert)聯合發表作品《Perceptrons: An Introduction to Computational Geometry》。1988年該書擴充再版,兩位作者在書中表示,1969年得出的結論明顯減少了神經網路研究所需的資金。作者稱:“我們認為,由於缺少基本理論,研究已經基本處於停滯狀態……到了60年代,人們在認知器演算方面進行了大量實驗,但是沒有一個人可以解釋系統為何可以識別特定模式,而其它模式卻無法識別。”

1970年:第一個擬人機器人誕生,它就是WABOT-1,由日本早稻田大學開發,它包括了肢體控制系統、視覺系統、會話系統。

1972年:MYCIN是一個早期專家系統,它可以識別引發嚴重傳染病的細菌,還可以推薦抗生素,該系統是斯坦福大學開發的。

1973年:詹姆斯·萊特希爾(James Lighthill)向英國科學研究委員會提交報告,介紹了AI研究的現狀,他得出結論稱:“迄今為止,AI各領域的發現並沒有帶來像預期一樣的重大影響。”最終政府對AI研究的熱情下降。

1976年:電腦科學家拉吉·瑞迪(Raj Reddy)發表論文《Speech Recognition by Machine: A Review》,它對自然語言處理(Natural Language Processing)的早期工作做了總結。

1978年:卡內基梅隆大學開發了XCON程式,這是一套基於規則開發的專家系統,可以輔助DEC VAX電腦,根據客戶的要求自動選擇元件。

1979年:在沒有人干預的情況下,Stanford Cart自動穿過擺滿椅子的房間,前後行駛了5小時,它相當於早期無人駕駛汽車。

1980年:日本早稻田大學研製出Wabot-2機器人,這是一個人型音樂機器人,可以與人溝通,可以閱讀樂譜,還可以演奏普通難度的電子琴。

1981年:日本國際貿易和工業部向“第五代電腦”專案投入8.5億美元,該專案只為開發出可以對話、翻譯語言、解釋圖片、像人一樣推理的電腦。

1984年:《電腦夢幻曲》(Electric Dreams )電影上映,它講述了一名男子、一名女子和一台電腦的三角戀故事。

1984年:在年度AAAI會議上,羅傑·單克(Roger Schank)和馬文·明斯基(Marvin Minsky)發出警告,他們認為“AI寒冬”已經來臨,AI泡沫很快就會破滅,AI投資與研究資金也減少,正如70年代出現的事情一樣。

1986年:在恩斯特·迪克曼斯(Ernst Dickmanns)的指導下,慕尼克大學開發了第一輛無人駕駛汽車,這是一輛賓士廂式貨車,配有攝像頭和感測器,座位上沒有人,最高時速55英里。

1987年:蘋果當時的CEO斯卡利(John Sculley)在Educom發表主題演講,談到了“知識領航員”(Knowledge Navigator)的概念,他描述了一個誘人的未來:“我們可以用智慧代理連接知識應用,代理依賴於網路,可以與大量數位化資訊聯繫。”

1988年:裘蒂亞·珀爾(Judea Pearl)發表了《Probabilistic Reasoning in Intelligent Systems》,2011年珀爾獲得圖靈獎,頒獎詞介紹稱:“裘蒂亞·珀爾為不確定條件下處理資訊找到了具象特徵,奠定了計算基礎。人們認為他是貝葉斯網路的發明人,貝葉斯網路是一套資料形式體系,可以確定複雜的概率模型,還可以成為這些模型推斷時的主導演算法。”

1988年:羅洛·卡彭特(Rollo Carpenter)開發了聊天機器人Jabberwacky ,它可以用有趣、娛樂、幽默的形式類比人類對話。利用與人互動的方法開發AI,卡彭特做出了獨特的嘗試。

1988年:IBM沃森研究中心發表《A statistical approach to language translation》,它標誌著過渡的開始,以前我們採用的是基於規則的機器翻譯概率法,它開始向“機器學習”轉移,機器學習是以已知案例的資料分析作為基礎的,而不是對手上任務的理解。IBM的項目名叫Candide,它可以成功在英語和法語之間翻譯,這套系統以220萬對句子作為基礎。

1988年:馬文·明斯基(Marvin Minsky)和西摩爾·帕普特(Seymour Papert)出版了圖書《Perceptrons》,這本書1969年首次出版,1988年擴充後再版。兩人解釋了再版的原因:“AI領域的研究為何沒有取得突破?因為研究人員不熟悉歷史,老是犯一些前人已經犯過的錯誤。”

1989年:燕樂存(Yann LeCun)與AT&T貝爾實驗室的其它研究人員攜手合作,成功將反向傳播演算法應用於多層神經網路,它可以識別手寫郵編。由於當時的硬體存在限制,訓練神經網路花了3天。

1990年:羅德尼·布魯克斯(Rodney Brooks)發表了《lephants Don’t Play Chess》,他提出了新的AI方法:利用環境交互重新打造智慧系統和特殊機器人。布魯克斯稱:“世界就是我們的最佳模型……關鍵在於正確感知它,保持足夠高的頻率。”

1993年:弗農·溫格(Vernor Vinge)發表了《The Coming Technological Singularity》,他預測在30年之內,我們可以用技術創造出超智者,簡言之,人類將會終結。

1995年:理查·華萊士(Richard Wallace)開發了聊天機器人 A.L.I.C.E(Artificial Linguistic Internet Computer Entity的縮寫),它受到了ELIZA的啟發,由於互聯網已經出現,網路為華萊士提供了海量自然語言資料樣本。

1997年:賽普·霍克賴特(Sepp Hochreiter)和於爾根·施密德胡伯(Jürgen Schmidhuber)提出了LSTM概念(長短期記憶),今天的遞迴神經網路就是用這種方法開發的,它可以識別手寫筆跡,還可以識別語音。

1997年:IBM研發的“深藍”(Deep Blue)擊敗人類象棋冠軍。

1998年:戴夫·漢普頓(Dave Hampton)和鐘少男(Caleb Chung)開發了Furby,它是第一款家庭機器人,或者說是寵物機器人。

1998年:燕樂存(Yann LeCun)與人合作發表論文,談到了用神經網路識別手寫筆跡的問題,還談到了優化向後傳播的問題。

2000年:MIT研究人員西蒂亞·佈雷澤爾(Cynthia Breazeal)開發了Kismet,它是一個可以識別、模擬表情的機器人。

2000年:本田推出了ASIMO,它是一個人工智慧擬人機器人,可以像人類一樣快速行走,在餐館內可以將盤子送給客人。

2001年:斯皮爾伯格拍攝的電影《人工智慧》上映,影片中一個機器人很像人類小孩,他的程式很獨特,擁有愛的能力。

2004年:第一屆DARPA自動駕駛汽車挑戰賽在莫哈韋沙漠舉行,可惜沒有一輛自動駕駛汽車完成150英里的挑戰目標。

2006年:傑佛瑞·辛頓(Geoffrey Hinton)發表《Learning Multiple Layers of Representation》,他首次提出了“機器閱讀”這一術語,所謂機器閱讀就是說系統不需要人的監督就可以自動學習文本。

2007年:傑佛瑞·辛頓(Geoffrey Hinton)發表《Learning Multiple Layers of Representation》,根據他的構想,我們可以開發出多層神經網路,這種網路包括自上而下的連接點,可以生成感官資料訓練系統,而不是用分類的方法訓練。辛頓的理論指引我們走向深度學習。

2007年:李飛飛(Fei Fei Li )和普林斯頓大學的同事攜手合作,開始研究ImageNet,這是一個大型資料庫,由大量帶注解的圖片組成,旨在為視覺物件識別軟體研究提供輔助。

2009年:Rajat Raina、阿南德·馬德哈邁(Anand Madhavan)和吳恩達(Andrew Ng)發表論文《Large-scale Deep Unsupervised Learning using Graphics Processors》,他們認為“現代圖形處理器的計算能力遠超多核CPU,GPU有能力為深度無監督學習方法帶來變革。”

2009年:谷歌開始秘密研發無人駕駛汽車,2014年,穀歌在內華達州通過了自動駕駛測試。

2009年,西北大學智慧資訊實驗室的研究人員開發了Stats Monkey,它是一款可以自動撰寫體育新聞的程式,不需要人類干預。

2010年:ImageNet大規模視覺識別挑戰賽(ILSVCR)舉辦。

2011年:在德國交通標誌識別競賽中,一個卷積神經網路成為贏家,它的識別率高達99.46%,人類約為99.22%。

2011年:IBM開發的自然語言問答電腦沃森在“危險邊緣”(Jeopardy!)中擊敗兩名前冠軍。

2011年:瑞士Dalle Molle人工智慧研究所發佈報告稱,用卷積神經網路識別手寫筆跡,錯誤率只有0.27%,之前幾年錯誤率為0.35-0.40%,進步巨大。

2012年6月:傑夫·迪恩(Jeff Dean)和吳恩達(Andrew Ng)發佈報告,介紹了他們完成的一個實驗。兩人向大型神經網路展示1000萬張未標記的圖片,這些圖片是隨機從YouTube視頻中抽取的,發現當中的一個人工神經元對貓的圖片特別敏感。

2012年10月:多倫多大學設計的卷積神經網路參加ImageNet大規模視覺識別挑戰賽(ILSVCR),它的錯誤率只有16%,比往年25%的錯誤率大幅改進。

2016年3月:穀歌DeepMind研發的AlphaGo擊敗圍棋冠軍李世石。

9 相關概念

技術奇點:指機器智慧超人類智慧的那個臨界點。在數學中,奇點是函數中無法處理的點。而在物理中,奇點是一個體積無限小、密度、引力、時空曲率無限大的點,在這個點,目前所知的物理定律都不適用。Singularity Institute for Artificial Intelligence于2000年宣告成立,吸收了瑞·庫茨維爾為榮譽會長,目標是研製出第一個種子人工智慧(Seed AI)。而全世界第一次技術奇點會議於2006年5月於斯坦福大學舉行。

賽柏格Cyborg:是“機械有機體”(Cybernetic organism)的簡稱,也就是義體人類、生化電子人,指混合了有機體與機械部件的生物。義體在日本相當於假肢。曾被認為是屬於科幻世界的賽柏格,如今,正在成為現實。

矽基生命silicon-based life:是指碳基生命以外的生命形態,這個概念早在19世紀就出現了。1891年,波茨坦大學的天體物理學家儒略申納爾(Julius Sheiner)在他的一篇文章中就探討了以矽為基礎的生命存在的可能性。我們目前使用的電腦,就是用矽作為晶片的,如果這個電腦再高級一些,發展成為智慧電腦,那就是矽基生命了。而網路世界,或許將是矽基世界了。而未來的人類也會是碳基生命和矽基生命的結合體。

經過氧化、光刻、擴散、外延、蒸鋁等半導體製造工藝,全部集成在一小塊矽片上,然後焊接封裝在一個管殼內的電子器件。

電腦邏輯部件的總體趨勢是體積越來越小,性能越來越高,價格越來越低。

3 人工智慧

人工智慧的定義可能眾說紛紜,但本質的東西應該還是演算法、資料、硬體。如果有海量的資料、硬體超強的處理能力、合適的演算法和,機器智慧就會有很多的可能。

人工智慧是電腦學科的一個分支,二十世紀七十年代以來被稱為世界三大尖端技術之一(空間技術、能源技術、人工智慧)。也被認為是二十一世紀三大尖端技術(基因工程、納米科學、人工智慧)之一。

人工智慧領域的研究包括機器人、語言識別、圖像識別、自然語言處理、專家系統、機器視覺,指紋識別,人臉識別,視網膜識別,虹膜識別,掌紋識別,自動規劃,智慧搜索,定理證明,博弈,自動程式設計,智慧控制,遺傳程式設計等。

以智慧型機器是否能推理(REASONING)和解決問題(PROBLEM_SOLVING)並擁有自主意識為標準,分為強人工智慧(BOTTOM-UP AI)和弱人工智慧(TOP-DOWN AI)。

4 人工智慧1.0-開端

人類對人工智慧最基本的假設就是人類的思考過程可以機械化。

1956年夏季,以麥卡賽、明斯基、羅切斯特和申農等為首的一批有遠見卓識的年輕科學家在一起聚會,共同研究和探討用機器模擬智慧的一系列有關問題,並首次提出了“人工智慧”這一術語,它標誌著“人工智慧”這門新興學科的正式誕生。

人工智慧1.0時代,人工智慧主要是通過推理和搜索等簡單的規則來處理問題,能夠解決一些諸如迷宮、梵塔問題等所謂的“玩具問題”。

5 人工智慧2.0-知識庫系統(資料庫)

電腦程式設計的快速發展極大地促進了人工智慧領域的突飛猛進,隨著電腦符號處理能力的不斷提高,知識可以用符號結構表示,推理也簡化為符號運算式的處理。這一系列的研究推動了“知識庫系統”(或“專家系統”)的建立,例如愛德華 ·費根鮑姆(ED Feigenbaum)等人在1965年開發的專家系統程式DENDRAL。

專家系統的缺陷在於知識描述非常複雜,且需要不斷升級。

6 人工智慧3.0-機器學習(互聯網)

在激增資料的支援下,人工智慧從推理、搜索昇華到知識獲取階段後,最後進化到機器學習階段。早在1996年,人們就已經定義了機器學習,從經驗學習中如何改進具體演算法的性能。到了1997年,隨著互聯網的發展,機器學習被進一步定義為“一種能夠通過經驗自動改進電腦演算法的研究”。

早期的人工智慧以推理、演繹為主要目的,但是隨著研究的深入和方向的改變,人們發現工人智慧的核心應該是使計算機具有智慧,使其學會歸納和綜合總結,而不僅僅是演繹出已有的知識。需要能夠獲取新知識和新技能,並識別現有知識。

機器學習的基本結構可能表述為:環境向學習系統提供資訊,而學習系統利用這些資訊修改知識庫。在具體的應用中,學習系統利用這些資訊修改知識庫後,執行系統就能提高完成任務的範圍和效能,執行系統根據知識庫完成任務之後,還能把執行任務過程中獲得的資訊回饋給學習系統,讓學習系統得到進一步擴充。

機器學習資訊迴圈

簡單一點說,3.0的人工智慧相對於2.0來說,可以自主更新或升級知識庫。機器學習就是在對海量資料進行處理的過程中,自動學習區分方法,以此不斷消化新知識。

機械學習的主要目的是為了從使用者和輸入資料等處獲得知識,從而可以幫助解決更多問題,減少錯誤,提高解決問題的效率。對於人工智慧來說,機械學習從一開始就很重要。1956年,在最初的達特茅斯夏季會議上,雷蒙德索洛莫諾夫寫了一篇關於不監視的概率性機械學習:一個歸納推理的機械。

通常,“機器學習”的數學基礎是“統計學”、“資訊理論”和“控制論”。還包括其他非數學學科。這類“機器學習”對“經驗”的依賴性很強。電腦需要不斷從解決一類問題的經驗中獲取知識,學習策略,在遇到類似的問題時,運用經驗知識解決問題並積累新的經驗,就像普通人一樣。我們可以將這樣的學習方式稱之為“連續型學習”。但人類除了會從經驗中學習之外,還會創造,即“跳躍型學習”。這在某些情形下被稱為“靈感”或“頓悟”。一直以來,電腦最難學會的就是“頓悟”。或者再嚴格一些來說,電腦在學習和“實踐”方面難以學會“不依賴於量變的質變”,很難從一種“質”直接到另一種“質”,或者從一個“概念”直接到另一個“概念”。正因為如此,這裡的“實踐”並非同人類一樣的實踐。人類的實踐過程同時包括經驗和創造。

根據學習環境不同,學習方式可分為監督學習和非監督學習。

6.1 監督學習(supervised learning)

監督學習,即在機械學習過程中提供對錯指示。一般實在是資料組中包含最終結果(0,1)。通過演算法讓機器自我減少誤差。這一類學習主要應用於分類和預測 (regression & classify)。監督學習從給定的訓練資料集中學習出一個函數,當新的資料到來時,可以根據這個函數預測結果。監督學習的訓練集要求是包括輸入和輸出,也可以說是特徵和目標。訓練集中的目標是由人標注的。常見的監督學習演算法包括回歸分析和統計分類。

6.2 非監督學習(unsupervised learning)

非監督學習又稱歸納性學習(clustering)利用K方式(Kmeans),建立中心(centriole),通過迴圈和遞減運算(iteration&descent)來減小誤差,達到分類的目的。

機器學習的核心是資料分類,其分類的方法(或演算法)有很多種,如決策樹、正則化法、樸素貝葉斯演算法、人工神經網路等。

對於機器學習來說,需要解決如何讓機器自己去選擇合適的特徵量的問題。

7 人工智慧4.0-深度學習(大資料)

大腦是一個龐大的記憶系統,它儲存著在某種程度上反映世界真實結構的經驗,能夠記憶事件的前後順序及其相互關係,並依據記憶做出預測。形成智慧、感覺、創造力以及知覺。

人的大腦通過神經元傳輸資訊,數量巨大的神經元構成了神經網路。當某一個神經元接收到刺激信號後,就會傳輸給另一個神經元,這樣逐層傳遞到大腦進行處理後就形成了感知。就好比感測器,當刺激達到某一個值時,感測器就會形成反應;如果沒有達到這個值,就不會形成反應。

深度學習的核心計算模型是人工神經網路。1943年,神經科學家沃倫麥卡洛克(Warren McCulloch)和沃爾特 彼茨(Walter Pitts)提出了一種大膽假說,描述了人類神經節沿著網狀結構傳遞和處理資訊的模型。這一假說一方面被神經科學家用於研究人類的感知原理;另一方面則被電腦科學家借鑒,用於人工智慧的相關研究。後者也被學術界稱為人工神經網路。

人工神經網路就是依照神經元傳遞資訊的方法來對資料進行分類的,我們可以在傳遞的過程中設置權重,如果資料小於這個權重,那麼就不能傳遞到下一個“神經元”中;反之,如果資料大於這個權重,則繼續往下傳遞,在這樣不斷傳遞的過程中,資料就會被分類到各個維度中。

神經網路是一種運算模型,由大量的節點(或稱神經元)之間相互聯接構成。每個節點代表一種特定的輸出函數,稱為激勵函數(activation function)。每兩個節點間的連接都代表一個對於通過該連接信號的加權值,稱之為權重,這相當於人工神經網路的記憶。網路的輸出則依網路的連接方式,權重值和激勵函數的不同而不同。最終整個神經網路會在不斷篩選和傳輸的過程中逐步逼近自然界中存在的某種演算法或者邏輯思維,而網路自身通常都是對自然界某種演算法或者函數的逼近,也可能是對一種邏輯策略的表達。

20世紀40年代,唐納德 赫布(Donald Hebb)深度將人工神經網路用於機器學習,創建出早期的“赫布型學習”(Hebbian Learning)理論。

深度學習這個術語是從1986年起開始流行開為的,但是,當量的深度學習理論還無法解決網路層次加深後帶來的諸多問題,電腦的計算能力也遠遠達不到深度神經網路的需要。更重要的是,深度學習賴以施展威力的大規模海量資料還沒有完全準備好。

同機器學習方法一樣,深度機器學習方法也有監督學習與無監督學習之分.不同的學習框架下建立的學習模型很是不同.例如,卷積神經網路(Convolutional neural networks,簡稱CNNs)就是一種深度的監督學習下的機器學習模型,而深度置信網(Deep Belief Nets,簡稱DBNs)就是一種無監督學習下的機器學習模型。

2006年,深度學習泰斗傑佛瑞·辛頓及其合作者用一篇名為《一種深度置信網路的快速學習演算法》的論文宣告了深度學習時代的到來。通過教授電腦深度學習,就有可能解決深層機構優化的問題。另外,深度學習結合多層結構學習演算法就能利用空間的相對關係減少參數的數量,以此來提高電腦的訓練性能。

深度學習是機器學習中一種基於對資料進行表徵學習的方法。觀測值(例如一幅圖像)可以使用多種方式來表示,如每個圖元強度值的向量,或者更抽象地表示成一系列邊、特定形狀的區域等。而使用某些特定的表示方法更容易從實例中學習任務(例如,人臉識別或面部表情識別)。深度學習的好處是用非監督式或半監督式的特徵學習和分層特徵提取高效演算法來替代手工獲取特徵。

深度學習是機器學習領域中的一種演算法,它能類比人腦神經元的工作方式,建造機器神經網路。具有深度學習能力的電腦網路能夠收集、處理並分析龐大的資料,最終能通過自主學習來實現圖像和語音辨識等智慧行為。

在圖像識別領域,深度學習的優勢在於能夠自動識別牲量(區別於人工輸入特徵量)。互聯網將全世界連接到了一起,與此同時也讓海量的資料連接到了一起,而深度學習正是依託這些海量資料才能實現自我尋找特徵量、建立新的學習模型。

我們從原來人腦設計參數的人工智慧轉變為由大資料驅動的人工智慧,實際上是在某些領域取得的技術突破,主要是在某個特定的領域超過了人。比如說,最早用深度學習做出來的語音辨識系統大獲成功。在人臉識別、圖像分類、阿爾法狗、自動駕駛、醫療技術等幾個方面都有著很大程度的突破。這些學術方面的突破,使電腦超越了人類以後,就相當於在垂直領域邁過了一道檻。而這道檻之後,人工智慧技術終於可以落地了,終於可以替換一些人工成本,來説明產業提高效率了。在某個特定的領域可以把人打敗。這其實並不神奇,因為汽車早已在賽跑的領域打敗了人類。可以說,在某個特定領域打敗人類不是什麼了不起的事。但是人們普遍認為,人工智慧就是機器人,它可以超越人腦並控制人類。但事實上,這是非常遙遠的事情。真正在一線做人工智慧研發的人是不敢這麼想的,只是致力於讓機器做事先設計好的特定任務,絕不會有另外的任務附加給它。我們經常開玩笑說,李世石在跟阿爾法狗下棋之前,也許早已在賭博公司下了賭注,賭自己輸。但是,阿爾法狗想不到這一點,所以儘管它以為自己贏了,但實際上它輸了。

現在人工智慧、深度學習的門檻變得比較低,就是因為它有了開源系統。利用這套系統就可以訓練出一個模型,可以做一些應用。

8 人工智慧大事記

1308年:加泰羅尼亞詩人、神學家雷蒙·盧爾(Ramon Llull)發表作品《Ars generalis ultima》(意思就是最終的綜合藝術),詳細解釋了自己的理論:用機械方法從一系列概念組合中創造新知識。

1666年:數學家和哲學家萊布尼茨(Gottfried Leibniz)出版《On the Combinatorial Art》,他繼承了雷蒙·盧爾的思想,萊布尼茨認為人類的所有創意全都來自於少量簡單概念的結合。

1726年:英國小說家喬納森·斯威夫特(Jonathan Swift)出版《格列佛遊記》,他在書中描述了一台名叫“Engine”的機器,這台機器放在Laputa島。斯威夫特描述稱:“運用實際而機械的操作方法來改善人的思辨知識。”“最無知的人,只要適當付點學費,再出一點點體力,就可以不借助于任何天才或學力,寫出關於哲學、詩歌、政治、法律、數學和神學的書來。”

1763年:湯瑪斯·貝葉斯(Thomas Bayes)創造一個框架,可以用來推理事件的可能性。最終貝葉斯推理方法成為機器學習的主要理論。

1854年:喬治·布林(George Boole)認為邏輯推理可以系統進行,就像解答方程式一樣。

1898年:在麥迪森廣場花園舉行的電氣展覽會上,尼古拉·特斯拉(Nikola Tesla)展示世界第一艘無線電遙控船。按照特斯拉的描述,船隻擁有“借來的思想”。

1914年:西班牙工程師萊昂納多·托裡斯·克維多(Leonardo Torres y Quevedo)展示世界上第一台可以自動下象棋的機器,不需要人類干預,機器可以自動下國際象棋。

1921年:捷克作家卡雷爾·恰佩克(Karel Čapek)在他的作品《Rossum’s Universal Robots》中首次使用了“機器人(Robot)”一詞,這個詞彙來自於“robota(工作)”。

1925年:無線電設備公司Houdina Radio Control展示世界第一輛用無線控制的無人駕駛汽車,汽車可以在紐約街道上行駛。

1927年:科幻電影《大都會》(Metropolis)上映。在影片中,一位名叫Maria的農村女孩是機器人,她在2026年的柏林引起騷亂。這是機器人第一次出現在螢幕上,後來《星球大戰》中的“C-3PO”受到它的啟發。

1929年:西村真琴(Makoto Nishimura)設計出“Gakutensoku”,在日語中,該名稱的意思就是說“向自然之法學習”,它是日本製造的第一個機器人。機器人可以改變面部表情,可以通過空氣壓力機制移動頭部和手部。

1943年:沃倫·麥卡洛克(Warren S. McCulloch)和沃爾特·皮茨(Walter Pitts)在《數學生物物理學公告》上發表論文《神經活動中內在思想的邏輯演算》(A Logical Calculus of the Ideas Immanent in Nervous Activity)。這篇論文對後世影響巨大,它討論了理想化、簡化的人工神經元網路,以及它們如何形成簡單的邏輯功能,後來誕生的電腦“神經網路”(以及最後出現的深度學習)受到它的啟發,所謂的“模擬大腦”這一說法也來自於它。

1948年,美國應用數學家諾伯特·維納(Norbert Wiener)(1894年-1964-)出版了他的奠基性著作《控制論》,標誌著這門新興的邊緣學科的誕生。該書的副標題是“關於在動物或機器中控制或通訊的科學”,這就是他對控制論所下的定義。cybernetics一詞來源於希臘文kubernan,原意為steersman,即“掌舵人”,轉意是“管理人的藝術”。

1949年,艾德蒙·伯克利(Edmund Berkeley)出版《Giant Brains: Or Machines That Think》,他在書中寫道:“最近出現許多消息,談論的主題是奇怪的巨型機器處理資訊,速度極快,技能很強……這種機器與大腦相似,由硬體和線纜組成,而不是血肉和神經……機器可以處理資訊,可以計算、可以得出結論、可以選擇,還可以根據資訊執行合理操作。總之,這台機器可以思考。”

1949年:唐納德·赫布(Donald Hebb)發表《Organization of Behavior: A Neuropsychological Theory》,他提出一種理論:根據猜想學習,這些猜測與神經網路高度關聯,隨著時間的推移,神經元突觸會得到強化或者削弱。

1950年:克勞德·香農(Claude Shannon)發表《程式設計實現電腦下棋》(Programming a Computer for Playing Chess),這篇論文第一次開始關注電腦象棋程式的開發問題。

1950年:阿蘭·圖靈(Alan Turing)發表論文《Computing Machinery and Intelligence》,他在論文中談到了“模仿遊戲”這一概念,也就是廣為人知的“圖靈測試”。

1951年:馬文·明斯基(Marvin Minsky)和迪恩·愛德蒙(Dean Edmunds)開發了SNARC,它是“Stochastic Neural Analog Reinforcement Calculator”的簡稱,意思是“隨機神經網路類比加固計算器”。SNARC是第一個人工神經網路,用3000個真空管模擬40個神經元的運行。

1952年:亞瑟·薩繆爾(Arthur Samuel)開發出第一個電腦跳棋程式,它也是世界上第一個可以自己學習的程式。

1955年8月31日:專家在一份提案中首次提出“AI(人工智慧,artificial intelligence)”這一術語,提案建議由10名專家組成小組,花2個月時間研究人工智慧。這份提案是達特茅斯學院約翰·麥卡錫(John McCarthy)、哈佛大學馬文·明斯基(Marvin Minsky)、IBM納旦尼爾·羅徹斯特(Nathaniel Rochester)和貝爾電話實驗室克勞德·香農(Claude Shannon)聯合提交的。1956年7月和8月,討論會正式舉行,這次會議成為人工智慧誕生的標誌。

1955年12月:赫伯特·西蒙(Herber t Simon)和艾倫·紐厄爾(Allen Newell)開發了“Logic Theorist”,它是世界上第一個AI項目,在羅素和懷特海《數學原理》第二章有52個定理,AI可以證明其中的38個。

1957年:弗蘭克·羅森布拉特(Frank Rosenblatt)開發了“Perceptron”,它是一個人工神經網路,可以利用兩層電腦學習網路識別模式。《紐約時報》刊文稱,Perceptron是電子電腦的雛形,美國海軍預測未來它可以自己行走、可以說話、可以看見東西、可以書寫,還可以自己生產自己,能感知到自己的存在。《紐約客》認為它是一台“了不起的機器……可以思考。”

1958年:約翰·麥卡錫(John McCarthy)開發了程式語言Lisp,它最終成為AI研究最流行的程式語言。

1959年:亞瑟·薩繆爾(Arthur Samuel)創造了“機器學習”這一術語,他在論文中談到了一個程式,該程式可以讓電腦學習如何下棋,棋藝可以超越程式開發者。

1959年:奧利弗·賽弗裡奇(Oliver Selfridge)發表論文《Pandemonium: A paradigm for learning》,他在論文中描述了一種處理模型,不需要預先設定,電腦就可以通過該模型識別新模式。

1959年:約翰·麥卡錫(John McCarthy)發表論文《Programs with Common Sense》。他在論文中談到了Advice Taker,這是一個程式,可以通過控制正式語言中的句子解決問題,它的終極目標是開發出可以像人類一樣從過往經歷不斷學習的程式。

1961年:第一台工業機器人Unimate在新澤西州通用汽車的組裝線上投入使用。

1961年:詹姆斯·斯拉格(James Slagle)開發了SAINT(符號自動積分程式),這套啟發式程式可以有效解決大學一年級微積分符號整合問題。

1964年:丹尼爾·鮑勃羅(Daniel Bobrow)完成論文《Natural Language Input for a Computer Problem Solving System》,這是他在MIT的博士論文。鮑勃羅還開發了STUDENT,也就是自然語言理解電腦程式。

1965年:赫伯特·西蒙(Herbert Simon)預測在20年內,機器可以做人類所能做的事。

1965年:赫伯特·德雷福斯(Herbert Dreyfus)發表《Alchemy and AI》,他認為智力與電腦是不一樣的,有些限制無法打破,直接導致AI無法進步。

1965年,古德(I.J.Good)在《Speculations Concerning the First Ultraintelligent Machine》寫道:“第一台超智慧型機器將是人類的最終發明,機器足夠溫順,完全可以告訴我們如何控制它。”

1965年:約瑟夫·維森班(Joseph Weizenbaum)開發了ELIZA,這是一個交互程式,它可以根據任何主題進行英文對話。一些人想將人類的感覺賦予電腦程式,對此維森班感到很震驚,他開發程式只是為了證明機器與人的交流很膚淺。

1965年:費根鮑姆(Edward Feigenbaum)、布魯斯·布坎南(Bruce G.Buchanan)、萊德伯格(Joshua Lederberg)和卡爾·傑拉西(Carl Djerassi)在斯坦福大學研究 DENDRAL,它是第一個專家系統,能夠自動做決策,解決有機化學問題,它的目的是研究假說資訊,構建科學經驗歸納模型。

1966年:機器人Shakey誕生,它是第一款基於通用目的開發的移動機器人,可以按邏輯形成自有動作。1970年,《生活》雜誌稱它是“第一個電子人“。文章還引用電腦科學家馬文•明斯基(Marvin Minsky)話稱:”3到8年之內,機器的智力就可以達到普通人的平均水準。“

1968年:電影《2001太空漫遊》上映,電影中的角色Hal就是一台有感知能力的電腦。

1968年:特裡·維諾格拉德(Terry Winograd)開發了SHRDLU,它是一個理解早期語言的電腦程式。

1969年:亞瑟·布萊森(Arthur Bryson)和何毓琦(Yu-Chi Ho)在論文中描述稱,反向傳播可以作為多階段動態系統優化方法使用。這是一種學習演算法,它可以應用於多層人工神經網路,2000-2010年深度學習之所以大獲成功離不開它的啟發,在後來的日子裡,電腦性能突飛猛進,可以適應巨大網路的訓練。

1969年:馬文·明斯基(Marvin Minsky)和西摩爾·帕普特(Seymour Papert)聯合發表作品《Perceptrons: An Introduction to Computational Geometry》。1988年該書擴充再版,兩位作者在書中表示,1969年得出的結論明顯減少了神經網路研究所需的資金。作者稱:“我們認為,由於缺少基本理論,研究已經基本處於停滯狀態……到了60年代,人們在認知器演算方面進行了大量實驗,但是沒有一個人可以解釋系統為何可以識別特定模式,而其它模式卻無法識別。”

1970年:第一個擬人機器人誕生,它就是WABOT-1,由日本早稻田大學開發,它包括了肢體控制系統、視覺系統、會話系統。

1972年:MYCIN是一個早期專家系統,它可以識別引發嚴重傳染病的細菌,還可以推薦抗生素,該系統是斯坦福大學開發的。

1973年:詹姆斯·萊特希爾(James Lighthill)向英國科學研究委員會提交報告,介紹了AI研究的現狀,他得出結論稱:“迄今為止,AI各領域的發現並沒有帶來像預期一樣的重大影響。”最終政府對AI研究的熱情下降。

1976年:電腦科學家拉吉·瑞迪(Raj Reddy)發表論文《Speech Recognition by Machine: A Review》,它對自然語言處理(Natural Language Processing)的早期工作做了總結。

1978年:卡內基梅隆大學開發了XCON程式,這是一套基於規則開發的專家系統,可以輔助DEC VAX電腦,根據客戶的要求自動選擇元件。

1979年:在沒有人干預的情況下,Stanford Cart自動穿過擺滿椅子的房間,前後行駛了5小時,它相當於早期無人駕駛汽車。

1980年:日本早稻田大學研製出Wabot-2機器人,這是一個人型音樂機器人,可以與人溝通,可以閱讀樂譜,還可以演奏普通難度的電子琴。

1981年:日本國際貿易和工業部向“第五代電腦”專案投入8.5億美元,該專案只為開發出可以對話、翻譯語言、解釋圖片、像人一樣推理的電腦。

1984年:《電腦夢幻曲》(Electric Dreams )電影上映,它講述了一名男子、一名女子和一台電腦的三角戀故事。

1984年:在年度AAAI會議上,羅傑·單克(Roger Schank)和馬文·明斯基(Marvin Minsky)發出警告,他們認為“AI寒冬”已經來臨,AI泡沫很快就會破滅,AI投資與研究資金也減少,正如70年代出現的事情一樣。

1986年:在恩斯特·迪克曼斯(Ernst Dickmanns)的指導下,慕尼克大學開發了第一輛無人駕駛汽車,這是一輛賓士廂式貨車,配有攝像頭和感測器,座位上沒有人,最高時速55英里。

1987年:蘋果當時的CEO斯卡利(John Sculley)在Educom發表主題演講,談到了“知識領航員”(Knowledge Navigator)的概念,他描述了一個誘人的未來:“我們可以用智慧代理連接知識應用,代理依賴於網路,可以與大量數位化資訊聯繫。”

1988年:裘蒂亞·珀爾(Judea Pearl)發表了《Probabilistic Reasoning in Intelligent Systems》,2011年珀爾獲得圖靈獎,頒獎詞介紹稱:“裘蒂亞·珀爾為不確定條件下處理資訊找到了具象特徵,奠定了計算基礎。人們認為他是貝葉斯網路的發明人,貝葉斯網路是一套資料形式體系,可以確定複雜的概率模型,還可以成為這些模型推斷時的主導演算法。”

1988年:羅洛·卡彭特(Rollo Carpenter)開發了聊天機器人Jabberwacky ,它可以用有趣、娛樂、幽默的形式類比人類對話。利用與人互動的方法開發AI,卡彭特做出了獨特的嘗試。

1988年:IBM沃森研究中心發表《A statistical approach to language translation》,它標誌著過渡的開始,以前我們採用的是基於規則的機器翻譯概率法,它開始向“機器學習”轉移,機器學習是以已知案例的資料分析作為基礎的,而不是對手上任務的理解。IBM的項目名叫Candide,它可以成功在英語和法語之間翻譯,這套系統以220萬對句子作為基礎。

1988年:馬文·明斯基(Marvin Minsky)和西摩爾·帕普特(Seymour Papert)出版了圖書《Perceptrons》,這本書1969年首次出版,1988年擴充後再版。兩人解釋了再版的原因:“AI領域的研究為何沒有取得突破?因為研究人員不熟悉歷史,老是犯一些前人已經犯過的錯誤。”

1989年:燕樂存(Yann LeCun)與AT&T貝爾實驗室的其它研究人員攜手合作,成功將反向傳播演算法應用於多層神經網路,它可以識別手寫郵編。由於當時的硬體存在限制,訓練神經網路花了3天。

1990年:羅德尼·布魯克斯(Rodney Brooks)發表了《lephants Don’t Play Chess》,他提出了新的AI方法:利用環境交互重新打造智慧系統和特殊機器人。布魯克斯稱:“世界就是我們的最佳模型……關鍵在於正確感知它,保持足夠高的頻率。”

1993年:弗農·溫格(Vernor Vinge)發表了《The Coming Technological Singularity》,他預測在30年之內,我們可以用技術創造出超智者,簡言之,人類將會終結。

1995年:理查·華萊士(Richard Wallace)開發了聊天機器人 A.L.I.C.E(Artificial Linguistic Internet Computer Entity的縮寫),它受到了ELIZA的啟發,由於互聯網已經出現,網路為華萊士提供了海量自然語言資料樣本。

1997年:賽普·霍克賴特(Sepp Hochreiter)和於爾根·施密德胡伯(Jürgen Schmidhuber)提出了LSTM概念(長短期記憶),今天的遞迴神經網路就是用這種方法開發的,它可以識別手寫筆跡,還可以識別語音。

1997年:IBM研發的“深藍”(Deep Blue)擊敗人類象棋冠軍。

1998年:戴夫·漢普頓(Dave Hampton)和鐘少男(Caleb Chung)開發了Furby,它是第一款家庭機器人,或者說是寵物機器人。

1998年:燕樂存(Yann LeCun)與人合作發表論文,談到了用神經網路識別手寫筆跡的問題,還談到了優化向後傳播的問題。

2000年:MIT研究人員西蒂亞·佈雷澤爾(Cynthia Breazeal)開發了Kismet,它是一個可以識別、模擬表情的機器人。

2000年:本田推出了ASIMO,它是一個人工智慧擬人機器人,可以像人類一樣快速行走,在餐館內可以將盤子送給客人。

2001年:斯皮爾伯格拍攝的電影《人工智慧》上映,影片中一個機器人很像人類小孩,他的程式很獨特,擁有愛的能力。

2004年:第一屆DARPA自動駕駛汽車挑戰賽在莫哈韋沙漠舉行,可惜沒有一輛自動駕駛汽車完成150英里的挑戰目標。

2006年:傑佛瑞·辛頓(Geoffrey Hinton)發表《Learning Multiple Layers of Representation》,他首次提出了“機器閱讀”這一術語,所謂機器閱讀就是說系統不需要人的監督就可以自動學習文本。

2007年:傑佛瑞·辛頓(Geoffrey Hinton)發表《Learning Multiple Layers of Representation》,根據他的構想,我們可以開發出多層神經網路,這種網路包括自上而下的連接點,可以生成感官資料訓練系統,而不是用分類的方法訓練。辛頓的理論指引我們走向深度學習。

2007年:李飛飛(Fei Fei Li )和普林斯頓大學的同事攜手合作,開始研究ImageNet,這是一個大型資料庫,由大量帶注解的圖片組成,旨在為視覺物件識別軟體研究提供輔助。

2009年:Rajat Raina、阿南德·馬德哈邁(Anand Madhavan)和吳恩達(Andrew Ng)發表論文《Large-scale Deep Unsupervised Learning using Graphics Processors》,他們認為“現代圖形處理器的計算能力遠超多核CPU,GPU有能力為深度無監督學習方法帶來變革。”

2009年:谷歌開始秘密研發無人駕駛汽車,2014年,穀歌在內華達州通過了自動駕駛測試。

2009年,西北大學智慧資訊實驗室的研究人員開發了Stats Monkey,它是一款可以自動撰寫體育新聞的程式,不需要人類干預。

2010年:ImageNet大規模視覺識別挑戰賽(ILSVCR)舉辦。

2011年:在德國交通標誌識別競賽中,一個卷積神經網路成為贏家,它的識別率高達99.46%,人類約為99.22%。

2011年:IBM開發的自然語言問答電腦沃森在“危險邊緣”(Jeopardy!)中擊敗兩名前冠軍。

2011年:瑞士Dalle Molle人工智慧研究所發佈報告稱,用卷積神經網路識別手寫筆跡,錯誤率只有0.27%,之前幾年錯誤率為0.35-0.40%,進步巨大。

2012年6月:傑夫·迪恩(Jeff Dean)和吳恩達(Andrew Ng)發佈報告,介紹了他們完成的一個實驗。兩人向大型神經網路展示1000萬張未標記的圖片,這些圖片是隨機從YouTube視頻中抽取的,發現當中的一個人工神經元對貓的圖片特別敏感。

2012年10月:多倫多大學設計的卷積神經網路參加ImageNet大規模視覺識別挑戰賽(ILSVCR),它的錯誤率只有16%,比往年25%的錯誤率大幅改進。

2016年3月:穀歌DeepMind研發的AlphaGo擊敗圍棋冠軍李世石。

9 相關概念

技術奇點:指機器智慧超人類智慧的那個臨界點。在數學中,奇點是函數中無法處理的點。而在物理中,奇點是一個體積無限小、密度、引力、時空曲率無限大的點,在這個點,目前所知的物理定律都不適用。Singularity Institute for Artificial Intelligence于2000年宣告成立,吸收了瑞·庫茨維爾為榮譽會長,目標是研製出第一個種子人工智慧(Seed AI)。而全世界第一次技術奇點會議於2006年5月於斯坦福大學舉行。

賽柏格Cyborg:是“機械有機體”(Cybernetic organism)的簡稱,也就是義體人類、生化電子人,指混合了有機體與機械部件的生物。義體在日本相當於假肢。曾被認為是屬於科幻世界的賽柏格,如今,正在成為現實。

矽基生命silicon-based life:是指碳基生命以外的生命形態,這個概念早在19世紀就出現了。1891年,波茨坦大學的天體物理學家儒略申納爾(Julius Sheiner)在他的一篇文章中就探討了以矽為基礎的生命存在的可能性。我們目前使用的電腦,就是用矽作為晶片的,如果這個電腦再高級一些,發展成為智慧電腦,那就是矽基生命了。而網路世界,或許將是矽基世界了。而未來的人類也會是碳基生命和矽基生命的結合體。

同類文章
Next Article
喜欢就按个赞吧!!!
点击关闭提示