您的位置:首頁>科技>正文

人工智慧技術將分三波到來 20年內或完全實現

3月30日消息, 據Futurism報導, 最近, 暢銷書作家、著名未來學和新興技術方向專家羅伊·泰紮納(Roey Tzezana)對人工智慧(AI)的光明未來做了很多研究, 同時發表了不少文章。 他認為AI將能夠分析人類情感、理解社會細微差別、進行醫學診斷和治療, 甚至讓人類工人變得多餘和不必要。

如今, 泰紮納依然支持這些預測, 但承認它們都是長期目標, 或許在二三十年後才會成為現實。 而許多人都想知道AI目前的情況。 幸運的是, 美國國防部下屬國防高級研究計畫局(DARPA)決定提供相關問題答案。 DARPA是美國最有趣的機構之一, 專門致力於資助“瘋狂”項目, 即完全不被正常思維或范式思維所接受的想法。 但也正因為如此, DARPA幫助建立早期互聯網和GPS系統也不足為奇了。 此外, 該機構還在研究許多令人感到奇怪的概念, 比如有腿的機器人、預測市場甚至能夠自我組裝的工具等。

自從DARPA成立以來,

它就重點關注“moonshot(瘋狂而不太可能實現的專案)”和突破性技術, 為此其當前關注AI領域的發展無需感到驚訝。 最近, DARPA下屬資訊創新辦公室發佈Youtube視頻, 揭示了當前AI所處狀態, 概述其當前能力, 並預測它們將來能做什麼。 線上雜誌《Motherboard》稱這段視頻為“瞄準AI炒作”, 很有觀看的必要。 這段視頻的核心資訊摘要如下:

AI可分為三個波次

DARPA將AI分為三個不同波次, 每種都有不同的能力和限制。 其中, 第三個波次顯然最令人感到興奮。 但要想正確理解它, 我們首先需要瞭解前兩個波次。

第一波次:手工製作知識

在AI的第一波次中, 專家們會基於自己掌握的知識設計演算法和軟體, 並嘗試位元這些程式提供邏輯規則, 這些規則被破譯, 並貫穿整個人類歷史。

這種方法促使下棋電腦和交付優化軟體的誕生。 我們如今使用的大多數軟體都是基於這種AI開發的, 包括我們的Windows作業系統、智慧手機應用甚至智慧交通燈等。

Modria就是這種AI的典型代表。 荷蘭政府近年來雇傭Modria開發自動工具以幫助夫妻離婚, 無需律師參與。 Modria專門從事智慧司法系統的創建, 它接受了這份工作, 並依靠律師和離婚專家的知識設計出自動離婚系統。 在Modria平臺上, 想要離婚的夫妻將被詢問一系列問題, 包括雙方對孩子監護權、財產分割以及其他常見問題。 當夫妻雙方回答這些問題後, 系統會自動識別他們同意或存在分歧的主題, 然後指導雙方協商, 以期獲得雙方都滿意的結果。

第一波次的AI系統通常是基於明確而又符合邏輯的規則開發的。

這些系統會檢查每個需要解決的問題中最重要的參數, 並得出結論, 給出最適當的解決方案。 但每個問題中的參數都是人類專家事先確定的。 為此, 第一波次AI系統很難處理新出現的問題。 面對抽象問題也很無奈, 這類問題需要從特定情況下吸取知識和洞見, 並將它們應用於解決新問題中。

總而言之, 第一波次AI系統能夠實現簡單的邏輯規則以處理定義明確的問題, 但其學習能力很差, 也沒有辦法應對不確定性問題。 如今, 有些人可能認為, 這並非大多數人所認為的人工智慧。 然而事實上, 我們對AI的定義也是隨著時間推移而不斷進化的。 如果我在30年前詢問街頭上的人, 穀歌地圖是否屬於AI軟體,

他可能會毫不猶豫地給出肯定回答。 穀歌地圖可以規劃最佳路線, 甚至可以用明確語言指導每次轉彎和每個路口。 然而, 穀歌地圖上的很多能力都是初級的, AI應該能夠執行更多功能。 AI應該能夠控制公路上行駛的汽車, 將乘客欲望考慮在內制定自律哲學, 同時還能泡咖啡。

Modria的司法體系和穀歌地圖都是“原始軟體”利用AI的最好例證。 如今, 第一波次的AI系統幾乎已經無所不在。

第二波次:統計學習

2004年時, DARPA舉行了首次大挑戰賽。 15輛無人駕駛汽車在莫哈韋沙漠中, 爭奪完成240公里的比賽。 這些車輛都依賴第一波次AI系統, 同時立即展示出這種AI存在的局限性:車上攝像頭拍攝的每張照片都是AI必須處理的新情況。 要說這些車輛難以處理比賽的整個過程有點兒誇張, 但它們的確無法確分圖片中的暗色形狀,無法確定其是否是岩石、遠處目標亦或只是遮住了太陽的雲朵。正如大挑戰賽項目副經理指出的那樣,有些車輛甚至害怕自己的影子和根本不存在的幻覺障礙。

圖:首次DARPA大挑戰賽無人駕駛汽車的比賽場景

在這場比賽中,沒有任何團隊能夠完成整個比賽,即使最成功的車輛也只跑了12公里。這是完全徹底的失敗,但它們也是DARPA喜歡資助的研究。DARPA希望能夠從這些早期試驗中找出洞見和經驗,進而在將來開發出更複雜的系統。事情的確沿著這個方向發展。1年後,當DARPA舉行2005年度大挑戰賽時,5個團隊的無人駕駛汽車完成了比賽。這些團隊依靠第二波次AI系統,即統計學習。1個獲獎團隊的負責人立即被谷歌招募,負責開發谷歌的無人駕駛汽車。

在第二波次AI系統中,工程師和程式師們不必在費心地教授AI系統完全遵守規則。相反,他們可以開發特定類型問題的統計模型,然後利用各種樣本訓練它們,以便讓它們變得更加精確和高效。統計學習系統在理解周圍世界方面取得巨大成功:它們可以區分不同的人或不同的母音。通過適當訓練,它們可以學習和調整自己以便適應不同的情況。可是,與第一波次AI系統不同,第二波次AI系統在邏輯方面依然存在很大限制:它們無法依賴明確的規則,只能盡力尋找通常足夠好的解決方案。

第二波次AI系統中的“海報男孩”是人工神經網路概念。在人工神經網路中,資料可通過計算層,每個計算層能夠以不同的方式處理資料,然後將其傳遞到下一層。通過在這些計算層中訓練,加上完整的網路,AI就能夠產生組精確的結果。通常情況下,訓練要求人工神經網路分析大量資料來源,以達到微小改進的目標。但是一般來說,與特定領域的第一波次AI系統相比,這種方法可提供更好的結果。

到目前為止,第二波次AI系統在人臉識別、語音轉錄、識別照片中動物和物體的能力已經超過人類。在翻譯領域,它們也正取得巨大進步。此外,它們還開始控制無人駕駛汽車和無人機。這些系統在執行如此複雜的任務中取得成功讓AI專家們目瞪口呆,因為實際上我們還不確定它們為何能如此成功。

第二波次AI系統的致命弱點是,沒人確定為何它們的表現如此之好。我們看到人工神經網路在執行給定任務方面表現非常棒,但我們不理解它們是如何做到的。此外,現在還不清楚人工神經網路背後是否真有一種方法支援。在某些方面,它們的確很像我們的大腦:我們可以將球扔向空中,然後無需計算牛頓的運動方程就可以預測它們的落點,甚至根本沒有意識到規則的存在。

乍一看,這似乎不是太大的問題。畢竟,人工神經網路似乎表現得很好。但微軟可能不同意這種觀點,該公司已經於2016年在社交媒體上發佈聊天機器人,嘗試模仿人類協作,並與年輕人進行輕鬆對話。這款機器人被稱為Tai,它可以模仿19歲美國青年的說話模式,並用獨特的俚語與他們交談。微軟認為,年輕人會喜歡它,事實也的確如此。許多人開始搞惡作劇,告訴Tai希特勒取得的巨大成就,稱9/11恐怖襲擊為美國陰謀等。幾個小時後,Tai開始應用它新學的知識,在Twitter上宣稱希特勒是個好人,沒有做錯任何事。

微軟工程師立即下線了Tai,它最後的推文是自己已經停止思考。但據我們所致,它依然在思考中。這起事件暴露了AI工程師當前面對的因果關係挑戰。我們可以相當精確地預測出第一波次AI在某些特定環境中的作用。但是隨著第二波次AI的到來,我們再也無法輕易識別出系統的因果關係,即輸入轉為輸出的精確方法,資料正被用來左右決策。

但這並非是說人工神經網路和其他第二波次AI系統完全無用。事實上遠非如此,但顯然如果我們不希望AI系統對納粹獨 裁者感到興奮,某些方面的改進是必須的。我們必須向下一波,也就是第三波次的AI系統前進。

第三波次:語境適應

在第三波次中,AI系統本身將可構建模型,用已解釋它們的工作原理。換言之,它們自己會發現形成決策過程的邏輯規則。舉例來說,如果使用第二波次AI系統分析下面的圖片,它會確認這是一頭奶牛。但它會如何解釋自己獲得這樣的結論?非常簡單,它沒有辦法解釋。

圖:大多數AI系統可以識別出圖片中的物體是牛

第二波次AI系統無法真正解釋自己是如何做出決策的,就像孩子即使看到球在空中移動也無法寫出牛頓的運動方程那樣。在絕大多數情況下,第二波次AI系統可以告訴我們,圖片中的物體85%的可能是奶牛。而第二波次AI系統應該能夠在最後結論中增加某些實質性內容。當第三波次AI系統觀察同樣的照片時,它可能會說,因為裡面有一頭4條腿的物體,它很有可能是一種動物。由於其白色表面有黑色斑點,它很有可能是奶牛。因為這種動物有乳房和蹄子,幾乎可以肯定它就是牛。

第二波次AI系統將能夠依靠幾個不同的統計模型,以便更完整地理解世界。它們能夠進行自我訓練,就像Alpha-Go那樣,它可通過與自己下100萬次圍棋訓練自己,並確定其應該使用的常識規則。第二波次AI系統還應該能夠從不同的資料來源中提取資訊,以給出細緻入微的解釋。舉例來說,這些系統可以從我們的可穿戴設備、智慧家居產品、汽車甚至城市中去資料,並確定我們的健康狀態。它們甚至能夠自我程式設計,並展現出抽象思維能力。

正如DARPA下屬資訊創新辦公室負責人所說的那樣,唯一的問題是,要想建立這樣的系統需要有很多工作要做。

展望未來20年

DARPA的視頻中的確揭示了不同AI系統之間的差異,但它並未減輕人們對AI的恐懼,許多人呼籲在開發AI系統時應保持警惕。DARPA澄清說,我們還未接近開發出類似“終結者”那樣的AI系統,但這從來都不是首要問題。沒人試圖宣稱當今AI已經成熟,足以做到我們數十年來期盼的所有事情:有自己的動機,做出符合道德的決策,甚至開發出下一代AI。但是第三波次AI的到來肯定向那個方向邁進了一大步。

當第三波次AI系統能夠自己破譯新的模式,並改進它們的功能時,它們實際上已經能過為新一代軟體程式設計。當它們理解語境和行為後果時,他們就能夠取代大多數人類,甚至所有人類。允許它們重塑模型,就意味著允許它們能夠重新程式設計自己的動機。

上述假設在未來幾年內不會發生,甚至在未來20年內都無法完全實現。正如暢銷書作家、著名未來學和新興技術方向專家泰紮納解釋的那樣,沒有任何負責任的AI研究人員會給出武斷的預測。擔心AI未來的人們(比如霍金、馬斯克、布羅斯托姆等)發出的核心資訊就是,我們需要現在就開始警惕,尋找如何能夠控制第三波次AI系統的方法,它們在20年內將變得無所不在。當我們考慮這些AI系統的能力時,這條資訊似乎變得理所當然。

最後波次

對於泰紮納來說,他最感興趣的是第四波次AI系統看起來會是什麼樣。它們是依賴對人類大腦的精確模擬嗎?或許第四波次AI系統將展示出我們目前還無法理解的決策機制,而那恰好是第三波次AI系統開發的基礎!這些問題都留待我們去思考、去研究。這也是我們人類的使命,至少在第三波次AI系統中需要我們繼續去探索。

網易企業服務-企業資訊化服務提供者

湖南領先網路科技有限公司163.hn.cn

但它們的確無法確分圖片中的暗色形狀,無法確定其是否是岩石、遠處目標亦或只是遮住了太陽的雲朵。正如大挑戰賽項目副經理指出的那樣,有些車輛甚至害怕自己的影子和根本不存在的幻覺障礙。

圖:首次DARPA大挑戰賽無人駕駛汽車的比賽場景

在這場比賽中,沒有任何團隊能夠完成整個比賽,即使最成功的車輛也只跑了12公里。這是完全徹底的失敗,但它們也是DARPA喜歡資助的研究。DARPA希望能夠從這些早期試驗中找出洞見和經驗,進而在將來開發出更複雜的系統。事情的確沿著這個方向發展。1年後,當DARPA舉行2005年度大挑戰賽時,5個團隊的無人駕駛汽車完成了比賽。這些團隊依靠第二波次AI系統,即統計學習。1個獲獎團隊的負責人立即被谷歌招募,負責開發谷歌的無人駕駛汽車。

在第二波次AI系統中,工程師和程式師們不必在費心地教授AI系統完全遵守規則。相反,他們可以開發特定類型問題的統計模型,然後利用各種樣本訓練它們,以便讓它們變得更加精確和高效。統計學習系統在理解周圍世界方面取得巨大成功:它們可以區分不同的人或不同的母音。通過適當訓練,它們可以學習和調整自己以便適應不同的情況。可是,與第一波次AI系統不同,第二波次AI系統在邏輯方面依然存在很大限制:它們無法依賴明確的規則,只能盡力尋找通常足夠好的解決方案。

第二波次AI系統中的“海報男孩”是人工神經網路概念。在人工神經網路中,資料可通過計算層,每個計算層能夠以不同的方式處理資料,然後將其傳遞到下一層。通過在這些計算層中訓練,加上完整的網路,AI就能夠產生組精確的結果。通常情況下,訓練要求人工神經網路分析大量資料來源,以達到微小改進的目標。但是一般來說,與特定領域的第一波次AI系統相比,這種方法可提供更好的結果。

到目前為止,第二波次AI系統在人臉識別、語音轉錄、識別照片中動物和物體的能力已經超過人類。在翻譯領域,它們也正取得巨大進步。此外,它們還開始控制無人駕駛汽車和無人機。這些系統在執行如此複雜的任務中取得成功讓AI專家們目瞪口呆,因為實際上我們還不確定它們為何能如此成功。

第二波次AI系統的致命弱點是,沒人確定為何它們的表現如此之好。我們看到人工神經網路在執行給定任務方面表現非常棒,但我們不理解它們是如何做到的。此外,現在還不清楚人工神經網路背後是否真有一種方法支援。在某些方面,它們的確很像我們的大腦:我們可以將球扔向空中,然後無需計算牛頓的運動方程就可以預測它們的落點,甚至根本沒有意識到規則的存在。

乍一看,這似乎不是太大的問題。畢竟,人工神經網路似乎表現得很好。但微軟可能不同意這種觀點,該公司已經於2016年在社交媒體上發佈聊天機器人,嘗試模仿人類協作,並與年輕人進行輕鬆對話。這款機器人被稱為Tai,它可以模仿19歲美國青年的說話模式,並用獨特的俚語與他們交談。微軟認為,年輕人會喜歡它,事實也的確如此。許多人開始搞惡作劇,告訴Tai希特勒取得的巨大成就,稱9/11恐怖襲擊為美國陰謀等。幾個小時後,Tai開始應用它新學的知識,在Twitter上宣稱希特勒是個好人,沒有做錯任何事。

微軟工程師立即下線了Tai,它最後的推文是自己已經停止思考。但據我們所致,它依然在思考中。這起事件暴露了AI工程師當前面對的因果關係挑戰。我們可以相當精確地預測出第一波次AI在某些特定環境中的作用。但是隨著第二波次AI的到來,我們再也無法輕易識別出系統的因果關係,即輸入轉為輸出的精確方法,資料正被用來左右決策。

但這並非是說人工神經網路和其他第二波次AI系統完全無用。事實上遠非如此,但顯然如果我們不希望AI系統對納粹獨 裁者感到興奮,某些方面的改進是必須的。我們必須向下一波,也就是第三波次的AI系統前進。

第三波次:語境適應

在第三波次中,AI系統本身將可構建模型,用已解釋它們的工作原理。換言之,它們自己會發現形成決策過程的邏輯規則。舉例來說,如果使用第二波次AI系統分析下面的圖片,它會確認這是一頭奶牛。但它會如何解釋自己獲得這樣的結論?非常簡單,它沒有辦法解釋。

圖:大多數AI系統可以識別出圖片中的物體是牛

第二波次AI系統無法真正解釋自己是如何做出決策的,就像孩子即使看到球在空中移動也無法寫出牛頓的運動方程那樣。在絕大多數情況下,第二波次AI系統可以告訴我們,圖片中的物體85%的可能是奶牛。而第二波次AI系統應該能夠在最後結論中增加某些實質性內容。當第三波次AI系統觀察同樣的照片時,它可能會說,因為裡面有一頭4條腿的物體,它很有可能是一種動物。由於其白色表面有黑色斑點,它很有可能是奶牛。因為這種動物有乳房和蹄子,幾乎可以肯定它就是牛。

第二波次AI系統將能夠依靠幾個不同的統計模型,以便更完整地理解世界。它們能夠進行自我訓練,就像Alpha-Go那樣,它可通過與自己下100萬次圍棋訓練自己,並確定其應該使用的常識規則。第二波次AI系統還應該能夠從不同的資料來源中提取資訊,以給出細緻入微的解釋。舉例來說,這些系統可以從我們的可穿戴設備、智慧家居產品、汽車甚至城市中去資料,並確定我們的健康狀態。它們甚至能夠自我程式設計,並展現出抽象思維能力。

正如DARPA下屬資訊創新辦公室負責人所說的那樣,唯一的問題是,要想建立這樣的系統需要有很多工作要做。

展望未來20年

DARPA的視頻中的確揭示了不同AI系統之間的差異,但它並未減輕人們對AI的恐懼,許多人呼籲在開發AI系統時應保持警惕。DARPA澄清說,我們還未接近開發出類似“終結者”那樣的AI系統,但這從來都不是首要問題。沒人試圖宣稱當今AI已經成熟,足以做到我們數十年來期盼的所有事情:有自己的動機,做出符合道德的決策,甚至開發出下一代AI。但是第三波次AI的到來肯定向那個方向邁進了一大步。

當第三波次AI系統能夠自己破譯新的模式,並改進它們的功能時,它們實際上已經能過為新一代軟體程式設計。當它們理解語境和行為後果時,他們就能夠取代大多數人類,甚至所有人類。允許它們重塑模型,就意味著允許它們能夠重新程式設計自己的動機。

上述假設在未來幾年內不會發生,甚至在未來20年內都無法完全實現。正如暢銷書作家、著名未來學和新興技術方向專家泰紮納解釋的那樣,沒有任何負責任的AI研究人員會給出武斷的預測。擔心AI未來的人們(比如霍金、馬斯克、布羅斯托姆等)發出的核心資訊就是,我們需要現在就開始警惕,尋找如何能夠控制第三波次AI系統的方法,它們在20年內將變得無所不在。當我們考慮這些AI系統的能力時,這條資訊似乎變得理所當然。

最後波次

對於泰紮納來說,他最感興趣的是第四波次AI系統看起來會是什麼樣。它們是依賴對人類大腦的精確模擬嗎?或許第四波次AI系統將展示出我們目前還無法理解的決策機制,而那恰好是第三波次AI系統開發的基礎!這些問題都留待我們去思考、去研究。這也是我們人類的使命,至少在第三波次AI系統中需要我們繼續去探索。

網易企業服務-企業資訊化服務提供者

湖南領先網路科技有限公司163.hn.cn

Next Article
喜欢就按个赞吧!!!
点击关闭提示