您的位置:首頁>正文

凱文·凱利:關於超人AI你們都錯了!

編者按:國際象棋、遊戲、圍棋、德州撲克……AI正在慢慢地攻陷人類的領地。 這些進展使得超智AI很快出現的聲音再度喧鬧起來。 但在《失控》作者、著名的未來學家凱文·凱利(KK)看來, 關於超智AI存在著5大迷思。 他的思考角度跟奇點派有著很大的不同, 值得大家好好看看。

據說未來電腦化的AI會比我們聰明得多, 以至於它們會奪走我們的工作和資源, 人類將走向滅絕。 這是真的嗎?

只要我舉辦AI方面的演講, 這就是我聽到的最常見的問題。 提問者非常懇切;他們的擔憂部分源自于一些專家也向自己提出了同樣的問題。

這些傢伙都算是目前最聰明的人了, 比如霍金、Elon Musk、Max Tegmark、Sam Harris以及比爾·蓋茨等。 他們相信, 這一場景非常有可能是真的。 最近在一場討論這些AI問題的會議上, 一個由AI方面見識最多廣的專家組成的9人小組一致認為這種超人智慧必然會出現, 而且距離我們並不遙遠。

但在這個擁有超人力量的人工智慧接管世界的場景下面, 需要有5個假設作為鋪墊, 而如果對此進行逐一仔細核查的話, 你會發現它們並沒有任何跡象為依據。 這些論斷在將來也許是對的, 但迄今為止並沒有任何證據支持。 超人智慧很快就要出現背後的假設是:

人工智慧已經比人更聰明, 而且在以指數的速度在增長。

我們將會把AI變成像我們一樣的通用智慧。

我們可用矽做出人類智慧。

智慧可以無限擴展。

一旦我們突破超級智慧, 後者將可以解決我們大多數的問題。

相對於這些正統的說法, 我們發現支持下面這5種異端學說的證據似乎更足。

智慧不是單一的維度, 所以“比人聰明”是個無意義的概念。

人類並沒有通用的思維, 所以AI也不會有。

用另一種媒體模擬人類思維會受到成本的約束。

智慧的維度不是無限的。

智慧只是發展的一個因素。

如果對超人AI接管世界的期望是建立在5個並沒有證據根據的關鍵假設基礎上的話, 那麼這個想法就更像是一種宗教信仰, 是一種迷思。 在文章的以下部分裡, 我將會展開闡述那5個相反假設的更多證據, 並且證明超人AI的確只是一種迷思。

關於人工智慧, 最常見的誤解始于對自然智慧的常見誤解。 這種誤解認為, 智慧是單一維度的。 大多數技術人往往用Nick Bostrom在《超級智慧》一書的方式來描繪智慧, 即智慧是單個維度的增幅線狀圖。 在這幅圖裡, 一頭是低等智能, 比如小動物, 而另一頭則是高等智能, 比如天才;就好像說智慧好比用分貝表示的聲級一樣。 當然, 接下來很容易就會擴大想像, 認為智慧的響級會繼續增長, 最終超過我們自己的高等智慧, 然後成為超級響的智慧——比如比我們聲音響亮得多的轟鳴聲, 甚至連圖都表示不了。

這一模型拓撲等價於階梯, 每一級的智慧都會比此前的一級更高。 低等動物位於比我們略低的階梯, 而更高級的智慧最終將越過我們,

爬上更高的臺階。 什麼時候會發生的時間標度不重要, 重要的是排名, 這個衡量智慧不斷增長的指標。

這種模型的問題在於它是虛構的, 比如階梯式的演進。 達爾文主義之前的自然世界觀就假設生命是階梯式的, 低等動物屬於人類之下的梯級。 即便是在達爾文之後, 一個非常常見的觀念是進化是“階梯式”的, 魚進化為爬行動物, 然後上升一個臺階進化到哺乳類動物, 再到靈長類, 最後到人, 每一次都比上一級多進化(當然也更聰明)了一點點。 所以智慧的階梯對應於生物的階梯。 但這些模型提供的是一個完全不科學的觀點。

物種自然演進的一個更加精確的圖表是一張向外輻射圓盤, 就像上面基於DNA的這張, 這是德克薩斯大學的David Hillis先設計出來的。 這個系譜曼荼羅從中間最原生的生命形式開始, 然後按照時間順序向衍生。 時間向外遷移所以今天生活在地球的最近的生命物種是出現在這個圓圈的邊緣。 這張圖強調了進化很難被認識到的一個基礎事實:現存的每一個物種都是平等演進的。 人類跟蟑螂、蛤蚌、蕨類植物、狐狸和細菌一樣都位於圓圈的外沿。這些物種每一個都經歷了30億年未曾間斷過的成功繁殖。也就是說,今天的細菌和蟑螂跟人類一樣是高度進化的。沒有階梯這一說。

類似地,智慧也沒有階梯。智慧不是一個單一的維度,而是許多認知類型和模式的綜合,每一個都是連續統一體。就拿衡量動物智慧這個非常簡單的任務來說吧。如果智慧是單個維度的話,那麼我們就應該可以把鸚鵡、海豚、馬、松鼠、章魚、藍鯨、貓以及大猩猩按照線性的順序排列。我們目前還沒有這樣一條線的科學依據。原因之一也許是動物智慧之間並沒有區別,但這一點我們也看不到依據。在動物如何思考方面動物學充斥著顯著的區別。但也許它們都著一樣的“一般智慧”呢?有這種可能性,但我們沒有衡量手段,找不到衡量這種智慧的單一指標。相反,對於不同類型的認知我們有很多不同的指標。

我們不畫單條的分貝線,相反,一個更精確的智慧模型可以是畫出它的可能性空間,就像上面用達爾文編寫的演算法創造出來的生命的各種可能形式一樣。智慧是組合的連續統一體。由多個各自都是一個連續統一體的節點創造出來的,高維的、高度多樣性的複合體。一些智慧可能非常複雜,有很多的思考子節點。有的可能更簡單一些,但是更加極端,處在空間的角落。這些我們稱之為智慧的複合體可被視為由許多種類型的樂器組成的交響樂。衡量它們的不僅只有響度,還包括音高、旋律、顏色、節拍等等。我們可以把它看成是一個生態體系。就這個意義而言,思維不同的組成節點是共存的、共同創造的。

用Marvin Minsky的話來說,人類思維就是社會思想。我們是在一個思想的生態體系裡面運作的。我們包含了多種認知來進行很多類型的思考:演繹、歸納、符號推理、情緒智力、空間邏輯、短時記憶以及長時記憶。我們的整個神經系統也是一種有著自己認知模式的大腦類型。我們並不僅僅只是用大腦來思考,而是用整個身體在思考。

這些認知組合因人而異因物種而異。幾千顆橡樹子的確切位置松鼠能記住好幾年,這項壯舉可以遠遠將人類思維拋在腦後。所以在某種類型的認知上,松鼠是勝過人類的。這種超級能力是跟其他模式綁定在一起的,那些模式是產生松鼠思維必須的,而與人類的相比那些模式顯然是黯淡無光的。動物王國裡面比人類出色的認知特長還有很多,這些也是綁定進不同的系統裡面的。

AI情況類似。人工思維在特定維度上已經超越了人類。你的計算器是數學天才;Google的記憶在特定維度已經超過了我們自己。我們設計AI讓它們擅長特定模式。其中一些模式是我們能做的,但是它們做得更好,比如概率或者數學。有的則是我們根本就不能做的思維類型——比如記住60億網頁的每一個單詞,這是一項任何搜尋引擎都做得到的本領。在未來,我們會發明出我們或者任何生物都不具備的全新認知模式。當我們發明人工飛行物時我們是受到了飛行的生物模式(主要是拍打翅膀)的啟發,但我們發明的飛行,也就是用螺栓拴在寬大固定翼的螺旋槳,對於我們的生物世界來說卻是未知的飛行模式。這是一種不同的飛行。類似地,我們也會發明自然並不存在的全新的思維模式。在很多情況下,這些會是新的、狹隘的、“小型”的特定模式,針對的是特定工作——也許是某種類型的推理,只對統計和概率有用。

其他情況下新思維會是複雜的認知類型,我們可以用來解決光靠我們的智慧無法解決的問題。商業和科學的一些最難的問題可能需要兩步的解決方案。第一步是:發明新的思維模式用來跟我們的思維協作。第二步:結合起來解決問題。因為我們正在解決此前無法解決的問題,我們希望把這種認知稱為比我們“更聰明”,但實際上它只是不同於我們。思維方式的不同是AI的主要好處。我認為有用的AI模型是把它視為外星智慧(或者人工外星人)。相異性是其主要資產。

與此同時,我們會將這些各不相同的認知模式集成為更複雜、更綜合的社會思維。其中一些複合體會比我們更加複雜,而因為它們能解決我們無法解決的問題,其中一些人希望稱之為超人。但我們並不會把Google稱為是超人AI,即便它的記憶比我們強,因為有很多事情我們幹得比它好。當然,這些人工智慧的綜合體在很多維度上面能超過我們,但沒有一個能夠在我們做的所有事情上都做得比我們好。這就類似於人的體力。工業革命已有200年的歷史,儘管所有的機器作為一類在需要體力方面的成就已經擊敗了個人(奔跑速度、舉重、精密切割等等),但沒有一台機器在所有事情上都能擊敗一位普通人。

即便AI的社會思維變得更加複雜,那種複雜度在此刻也是難以系統地衡量的。我們並沒有好的可操作的複雜度指標,可以用來確定黃瓜是否就比波音747複雜,或者它們的複雜方式的不同。這是我們對聰明一樣沒有好指標的原因之一。想要確定頭腦A比頭腦B複雜是非常困難的,出於同樣的原因,想要宣稱頭腦A比頭腦B聰明也是一樣的難。我們很快就會到達這樣的時點,那就是“聰明”不會是單一的維度,而我們真正關心的是智慧眾多的其他運作方式——也就是所有那些我們尚未發覺的認知節點。

對人工智慧的第二項誤解是我們以為自己有通用智慧。這一信念的再三重複影響了AI研究人員,導致他們制定出共同的既定目標,也就是要創造出通用人工智慧(強人工智慧,AGI)。然而,如果我們將智慧視為提供一個大的可能性空間的話,那就不會有通用狀態。人類智慧並沒有處在某個中心位置,被其他的特殊智慧眾星捧月。相反,人類智慧是一種非常非常特殊的智慧類型,已經過了數百萬年的演進才促使我們這個物種得以在地球上生存。如果把所有可能的智慧映射在進這個空間內的話,人類智慧只會在這個空間內偏居一隅,就像我們的世界也只是坐落在浩瀚的銀河系邊緣上一樣。

我們當然可以想像,甚至發明出瑞士軍刀式的思維。這有點類似於一堆事情它都能做,但沒有一樣做得非常好。AI也將遵循所有制造或誕生出來的東西都必須遵循的工程準則:你不可能在每一個維度上都做到最優化。你只能進行取捨。一個通用單元是沒有辦法勝過專門的功能的。一個宏大的“做一切事情”的頭腦在每一件事情上都無法做得跟專門的代理一樣的好。因為我們認為我們人類的思維是通用的,所以往往認為認知不會遵循工程師的權衡取捨,以為開發出令所有的思維模式最大化的智慧是有可能的。但我看不到這方面的跡象。我們根本還沒有發明出足夠多樣化的思維來看清整個空間(指思維的可能性空間,迄今為止我們往往把動物思維貶視為單一類型,以為它們不過是在同一個維度上,只是幅度各不相同罷了。)

這種通用思維最大化的理念部分源自統一計算的概念。這一概念的正式提出是在1950年,也就是所謂的邱奇-圖靈論題,這個猜想提出,任何滿足特定閾值的計算都是等價的。因此所有計算,無論是發生在帶許多快速或者緩慢部件的機器,或者甚至是發生在一個生物頭腦裡面的計算,它們都會有一個統一的核心,都是一樣的邏輯過程。也就意味著你應該可以在任何可執行“統一”計算的機器模擬所有的計算過程(思維)。奇點派(Singularitans,認為機器智慧超過人類即將到來的人,代表包括Ray Kurzweil、Elon Musk、霍金等)靠這一原則來支撐它們的期望——也就是我們將會製造出媲美人類思維的矽晶大腦,可以讓人工大腦像人類一樣思維,只是比我們聰明得多。對於這種期望我們應該持質疑的態度,因為它依賴的是對邱奇-圖靈假設的誤解。

這個理論的出發點是:“鑒於紙帶(記憶體)和時間的無限性,所有計算都是等價的。”問題是在現實裡,並沒有電腦有無限的記憶體或者時間。當你在現實世界運行時,真正的時間會有很大的差異,往往是生死攸關之別。是,如果忽視時間的話所有思維都是等價的。是,你可以在任何想要的母體模擬人類的那種思維,只要你忽視時間或者存儲、記憶體的現實約束的話。然而,如果你把時間考慮進去的話,那條原則就大不一樣了:在差異巨大的不同平臺上運行的兩套計算系統是無法即時等價的。這個也可以重新複述成這個樣子:擁有等價思維的唯一辦法是將其運行在等價的基底上。你運行計算所在的“肉身(physical matter)”,尤其是隨著它變得越來越複雜,會對可以即時完成好的認知類型產生極大影響。

這一條我還要進一步延伸:獲得像人類那樣的思維處理的唯一方式是在像人類那樣的濕重組織(wet tissue)內運行計算。這也意味著在幹的矽晶上運行的非常龐大複雜的人工智慧會產生出龐大、複雜的、跟人類不一樣的思維。如果有可能開發出利用像人類那樣的神經元的人工濕重大腦的話,我的預測是它們的思維會更像我們的。這樣一個濕重大腦的好處與我們造出的基底與人類的相似度成正比。創造濕件(wetware,人類神經系統)的成本高昂,而這種組織跟人類大腦組織越接近,則我們乾脆造人的成本效益就越高。畢竟嘛,十月懷胎,這種辦法需要的只是時間。

此外,如前所述,我們是用全身而不僅僅是大腦來思考的。我們有大量資料表明,我們腸道的神經系統是如何引導我們“理性”的決策過程,並且可以預測和學習的。我們對整個人體系統建模越多,就離複製它越近。一個運行在非常不同的身體(幹的矽晶而不是濕的碳基)內的智慧思考也會不同。

我認為這不是bug,相反們這是一項特性。就像我在第二點指出那樣,與人的思維方式不同是AI最主要的資產。而這個正是“比人類聰明”這個說法誤導人的又一個原因。

超人智慧這個概念,尤其是智慧會不斷改進自己的觀點,其核心理念是智慧沒有上限。我找不到這個的證據。再次地,把智慧誤解成單一維度幫助了這個理念,但我們應該把它理解成一個理念。按照目前科學的已知,在宇宙中還沒有一個物理維度是無限的。溫度不是無限的——冷和熱都是有限度的。空間和時間是有限的。速度是有限的。數學數軸也許是無限的,但所有其他的物理屬性都是有限的。顯然推論本身也是有限的而不是無限的。那麼問題來了,智慧的極限在哪裡呢?我們往往認為這種極限遠遠超過我們,遠在我們“之上”,就像我們遠在螞蟻“之上”一樣。單一維度的遞迴問題且拋開不談,我們有什麼證據證明我們就不是極限了呢?我們為什麼就不能是最大值?或者也許極限離我們只有很短距離了呢?我們為什麼會相信智慧是一個可以無限擴展的東西呢?

把我們的智慧看成是100萬種智慧類型之一,這種對智慧的看待方式要好得多。所以儘管認知和計算的每一個維度都有極限,但如果存在好幾百個維度的話,那麼就會有無數的思維出現——儘管任何一個維度都不是無限的。隨著我們開發或者遭遇無數思維各種各樣的變體,我們自然會認為其中一些超過了我們。在最近寫的《必然》這本書裡面,我粗略描述了部分思維變體在一定程度上會超過我們。以下就是不完整清單:

今天的一些傢伙可能想把這些實體都叫做超人AI,但這些思維絕對的多樣性和相異性會將我們引領到有關智慧的新表達和新洞察。

其次,超人智慧的信徒假定智慧會(以某個未經確認的單一指標)指數增長,也許是因為他們也假設它已經在呈指數增長了。然而,迄今為止並沒有任何證據表明智慧在指數增長——無論你如何進衡量。所謂指數增長我的意思是說人工智慧在一定時間間隔內實現了能力翻番。證據呢?我找不到。如果現在沒有的話,為什麼我們就可以假設很快就會發生呢?唯一呈指數曲線發展的東西是AI的輸入,也就是致力於產生智慧的資源。但輸出的效能並未呈摩爾定律增長。AI能力並沒有每3年翻番,或者甚至每10年翻番都沒有。

我問了很多AI專家,想找他們要智慧的性能呈指數增長的證據,但他們都同意說我們並沒有衡量智慧的指標,此外,智慧也不是這樣運作的。當我問指數增長巫師Ray Kurzweil本人指數性AI的證據在哪裡時,他回信說AI並不是爆發式增長而是按照水準提升的。他說:“計算和演算法複雜度需要取得指數改進才能給層級增加額外的一層……所以我們可以預期線性地增加層級,因為這需要指數式的複雜度增加才能增加新的一層,在做這件事情的能力方面我們的確取得了指數式進展。我們現在距離大腦新皮質能做的事情已經沒有那麼多層的差距了(注:指深度學習的層次),所以對我來說我的2029年時間點(注:指奇點到來的時間)看起來還是很合適的。”

Ray的意思似乎是說,不是人工智慧的能力在指數式增長,而是產生人工智慧的努力在指數增長,而這種努力的產出是每次提高了一個層級。這與智慧正在爆發的假設幾乎是背道而馳的。這在未來可能還會變化,但人工智慧顯然目前還沒有指數增長。

因此,當我們想像“智慧爆發”時,我們不應該把它想像成級聯爆發,而應該想像成新變體的分散剝落。是一次寒武紀大爆發而不是核爆炸。加速技術的結果不大可能是超人,而是異人(extra-human)。這超出了我們的經驗,但未必就是“在我們之上”。

超級AI接管世界另一個未受挑戰的信念是,一個超級的、近乎無限的智慧可迅速解決我們懸而未決的重大問題,但這幾乎沒有證據支撐。

智慧爆發的許多支持者期望它可以帶來爆發式的進步。我把這種迷思成為“思考主義(thinkism)”。認為未來的進步水準只是受制於思考能力或者智慧是謬誤的。(可能我還要指出的是,很多喜歡思考的傢伙都有那種想法,以為思考是包治百病的魔術配方。)

就拿治癒癌症或者長生不老來說吧。這些問題都不是光靠思考就能解決的。思考主義再多也發現不了細胞是如何老化的,或者染色體端粒是如何掉落的。任何智慧,不管它的能力如何超級,都不能僅通過閱讀目前全世界所有已知的科學文獻然後苦思冥想出人體是如何工作的。任何超級AI都不能光靠思考所有目前和過去的核裂變試驗然後在一天之內想出可行的核裂變。在弄清事物的運作機制方面,從未知走向已知除了思考以外還需要很多其他的東西。現實世界要進行無數的試驗,每一次都會提交無數自相矛盾的資料,需要進行進一步的試驗才能形成正確的工作假設。對潛在資料展開思考並不能提交出正確的資料。

思考(智慧)只是科學的一部分,可能甚至只是一小部分。舉個例子,我們還沒有足夠的合適資料來接近解決死亡問題。在有機體的問題上,這些實驗大部分都需要日曆時間。細胞緩慢的新陳代謝是沒有辦法加速的。這需要數年、數月或者至少數天的時間才能獲得結果。如果我們想知道亞原子粒子發生了什麼事情,光靠想是想不出來的。我們必須建造非常大型、非常複雜、非常精細的物理裝置才能找出來。即便最聰明的物理學家比現在的聰明1000倍,如果沒有對撞機的話,它們也知曉不了任何新東西。

超級AI無疑可以加速科學的進步。我們可以讓電腦類比原子或者細胞,我們可以通過多種因素加速它們,但在獲得即時進展上有兩個問題制約了模擬的用處。第一是模擬和建模比主體快是因為忽略了一些東西。而這正是模型或者模擬的本質。還要注意一點:測試、審查以及證明這些模型也必須以日曆時間的節奏來發生,這樣才能匹配主體的速度。對基礎事實的測試是沒有辦法加速的。

模擬的這些簡化版對於篩選出最有希望的路徑是有用的,所以可以加速取得進展。但在現實當中一切都會有度;一切真實的東西產生的影響只能到一定程度,這正是現實的定義之一。隨著給模型和模擬注入的細節越來越多,它們就會到達現實要比自己的100%模擬跑得更快的極限。這又是現實的另一個定義:體現所有細節和自由度的最快版本。如果你可以對細胞的所有分子以及人體的所有細胞進行建模,這種模擬的運行速度不會比人體快。你再怎麼思考這個,不管是在真實的系統還是類比系統進行,你還是要花時間去試驗。

人工智慧要想發揮作用就必須嵌入到世界裡面,而這個世界將設定好它們的創新節奏。如果不進行實驗,不開發原型,不經歷失敗,不跟現實互動的話,一個智慧是可以思考但卻不會有結果。所謂的“比人聰明”的AI出現1分鐘、1小時、1天或者1年之後都不會馬上有什麼新發現。當然,發現的節奏會因為AI的進展而顯著加速,這部分是因為外星人式的AI會提出人類想不到的問題,但即便是一個強大得多的智慧(跟我們相比)也不能意味著馬上就能取得進展。問題解決需要的東西遠不止是智慧。

光靠智慧不僅解決不了癌症和長壽問題,就連智慧問題本身光靠它也解決不了。奇點派常見的一個比方是,一旦你做出“比人聰明”的AI,那麼突然之間它就能努力思考並發明出一個“比自己聰明”的AI,而後者在苦思冥想之後又能發明出一個更聰明的,這樣能力爆發到幾乎變得像上帝一樣。我們沒有證據表明僅靠思考智慧就可以創造出水準上一個臺階的智慧。這類思考主義只是一種信念。我們有大量證據表明,除了大量智慧以外,我們還需要試驗、資料、試錯、怪異的質疑等等各種各樣智力以外的東西來發明出成功的新思維。

我的這些說法也有可能是錯的。因為下結論現在還早。我們也許會發現一個智慧的統一指標;我們有可能會發現它在各個方向上都是沒有極限的。因為我們對智慧(更不用說意識了)是什麼瞭解如此之少,某種類型的AI奇點出現的可能性是大於0的。我認為,所有證據表明,此類場景出現是不大可能的,但也不是不可能。

所以,儘管我不同意它的可能性,但對於OpenAI,以及擔心超人AI的聰明人的更大目標——也就是我們應該開發出友好的AI並想辦法給它灌輸與我們相匹配的可自我複製的價值觀,對這一點我是認同的。儘管我認為一個超人AI仍然是比較遙遠的存在威脅(同時也是值得考慮的),但它的不可能性(基於我們目前已有的證據)不應該成為我們科學、政策以及發展的指導方針。小行星撞擊地球的後果是災難性的。其發生概率大於零,但我們不應該讓小行星撞擊地球的概率來支配我們在應對氣候變化、推進太空旅行或者甚至是城市規劃的努力。

類似地,迄今為止的跡象表明,AI很有可能不會成為超人,而是會成為眾多的異人新思維,這些思維方式大部分都異於人類,但沒有一個會是通用的,也沒有一個會成為馬上就能解決重大問題的上帝。相反,將來會出現無數有限智慧,在我們不熟悉的維度上工作,其中許多都超過了我們的思維,它們會適時跟我們一起配合,去解決現有問題並創造出新問題。

我理解超人AI上帝的引人入勝。這就像是一個新的超人。但就像超人一樣,這是個虛構的人物。在宇宙深處也許存在著這麼一個超人,但可能性非常小。然而迷思也是有用的,而且一旦被發明出來就不會消失。超人的想法永遠都不會死。超人AI奇點的想法現在已經誕生,也永遠不會消亡了。但我們應該意識到在目前這還是只是一個宗教想法而不是科學點子。如果我們調查一下現有的有關智慧,無論是人工智慧還是自然智慧方面的證據,我們只能得出結論說,我們有關虛構的超人AI上帝的猜測只不過是迷思罷了。

密克羅尼西亞的許多相互隔絕的孤島在二戰期間才第一次跟外界接觸。外星人上帝坐在聒噪的鳥上飛過他們的天空,投下食物和商品到他們的島上,然後一去不復返。島上的宗教崇拜開始彌漫,祈禱上帝回來再扔下更多的貨物。即便是現在,在50年之後,許多人仍然在等著貨物回來。超人AI不過是又一次宗教崇拜的可能性是存在的。百年之後,當大家回望現在時,也許也會把此刻視為信徒期盼超人AI突 然出現,然後帶來價值無法想像的貨品之時。10年又10年,他們癡心等待著超人AI的出現,確信它很快就會帶著貨物來到我們身邊。

但是非超人式的人工智慧已經到來,這是真的。我們不斷地重新定義AI,提高它的難度,這在未來會禁錮住它,但就更廣泛的外星智慧——也就是各種智慧、認知、推理、學習以及意識的連續體而言,AI已經滲透到了這個星球上,而且還會繼續擴散、深化、變化並且增強。在改變世界的能力方面,此前沒有任何一種發明能夠與之匹敵,到本世紀末,AI將觸及和重塑我們日常生活的一切。但是超人AI,無論是會讓我們超級富足還是讓我們淪為超級奴隸(或者兼而有之),這種迷思可能仍將存在——因為這種可能性實在是太具有神話性了,以至於我們難以捨棄。

人類跟蟑螂、蛤蚌、蕨類植物、狐狸和細菌一樣都位於圓圈的外沿。這些物種每一個都經歷了30億年未曾間斷過的成功繁殖。也就是說,今天的細菌和蟑螂跟人類一樣是高度進化的。沒有階梯這一說。

類似地,智慧也沒有階梯。智慧不是一個單一的維度,而是許多認知類型和模式的綜合,每一個都是連續統一體。就拿衡量動物智慧這個非常簡單的任務來說吧。如果智慧是單個維度的話,那麼我們就應該可以把鸚鵡、海豚、馬、松鼠、章魚、藍鯨、貓以及大猩猩按照線性的順序排列。我們目前還沒有這樣一條線的科學依據。原因之一也許是動物智慧之間並沒有區別,但這一點我們也看不到依據。在動物如何思考方面動物學充斥著顯著的區別。但也許它們都著一樣的“一般智慧”呢?有這種可能性,但我們沒有衡量手段,找不到衡量這種智慧的單一指標。相反,對於不同類型的認知我們有很多不同的指標。

我們不畫單條的分貝線,相反,一個更精確的智慧模型可以是畫出它的可能性空間,就像上面用達爾文編寫的演算法創造出來的生命的各種可能形式一樣。智慧是組合的連續統一體。由多個各自都是一個連續統一體的節點創造出來的,高維的、高度多樣性的複合體。一些智慧可能非常複雜,有很多的思考子節點。有的可能更簡單一些,但是更加極端,處在空間的角落。這些我們稱之為智慧的複合體可被視為由許多種類型的樂器組成的交響樂。衡量它們的不僅只有響度,還包括音高、旋律、顏色、節拍等等。我們可以把它看成是一個生態體系。就這個意義而言,思維不同的組成節點是共存的、共同創造的。

用Marvin Minsky的話來說,人類思維就是社會思想。我們是在一個思想的生態體系裡面運作的。我們包含了多種認知來進行很多類型的思考:演繹、歸納、符號推理、情緒智力、空間邏輯、短時記憶以及長時記憶。我們的整個神經系統也是一種有著自己認知模式的大腦類型。我們並不僅僅只是用大腦來思考,而是用整個身體在思考。

這些認知組合因人而異因物種而異。幾千顆橡樹子的確切位置松鼠能記住好幾年,這項壯舉可以遠遠將人類思維拋在腦後。所以在某種類型的認知上,松鼠是勝過人類的。這種超級能力是跟其他模式綁定在一起的,那些模式是產生松鼠思維必須的,而與人類的相比那些模式顯然是黯淡無光的。動物王國裡面比人類出色的認知特長還有很多,這些也是綁定進不同的系統裡面的。

AI情況類似。人工思維在特定維度上已經超越了人類。你的計算器是數學天才;Google的記憶在特定維度已經超過了我們自己。我們設計AI讓它們擅長特定模式。其中一些模式是我們能做的,但是它們做得更好,比如概率或者數學。有的則是我們根本就不能做的思維類型——比如記住60億網頁的每一個單詞,這是一項任何搜尋引擎都做得到的本領。在未來,我們會發明出我們或者任何生物都不具備的全新認知模式。當我們發明人工飛行物時我們是受到了飛行的生物模式(主要是拍打翅膀)的啟發,但我們發明的飛行,也就是用螺栓拴在寬大固定翼的螺旋槳,對於我們的生物世界來說卻是未知的飛行模式。這是一種不同的飛行。類似地,我們也會發明自然並不存在的全新的思維模式。在很多情況下,這些會是新的、狹隘的、“小型”的特定模式,針對的是特定工作——也許是某種類型的推理,只對統計和概率有用。

其他情況下新思維會是複雜的認知類型,我們可以用來解決光靠我們的智慧無法解決的問題。商業和科學的一些最難的問題可能需要兩步的解決方案。第一步是:發明新的思維模式用來跟我們的思維協作。第二步:結合起來解決問題。因為我們正在解決此前無法解決的問題,我們希望把這種認知稱為比我們“更聰明”,但實際上它只是不同於我們。思維方式的不同是AI的主要好處。我認為有用的AI模型是把它視為外星智慧(或者人工外星人)。相異性是其主要資產。

與此同時,我們會將這些各不相同的認知模式集成為更複雜、更綜合的社會思維。其中一些複合體會比我們更加複雜,而因為它們能解決我們無法解決的問題,其中一些人希望稱之為超人。但我們並不會把Google稱為是超人AI,即便它的記憶比我們強,因為有很多事情我們幹得比它好。當然,這些人工智慧的綜合體在很多維度上面能超過我們,但沒有一個能夠在我們做的所有事情上都做得比我們好。這就類似於人的體力。工業革命已有200年的歷史,儘管所有的機器作為一類在需要體力方面的成就已經擊敗了個人(奔跑速度、舉重、精密切割等等),但沒有一台機器在所有事情上都能擊敗一位普通人。

即便AI的社會思維變得更加複雜,那種複雜度在此刻也是難以系統地衡量的。我們並沒有好的可操作的複雜度指標,可以用來確定黃瓜是否就比波音747複雜,或者它們的複雜方式的不同。這是我們對聰明一樣沒有好指標的原因之一。想要確定頭腦A比頭腦B複雜是非常困難的,出於同樣的原因,想要宣稱頭腦A比頭腦B聰明也是一樣的難。我們很快就會到達這樣的時點,那就是“聰明”不會是單一的維度,而我們真正關心的是智慧眾多的其他運作方式——也就是所有那些我們尚未發覺的認知節點。

對人工智慧的第二項誤解是我們以為自己有通用智慧。這一信念的再三重複影響了AI研究人員,導致他們制定出共同的既定目標,也就是要創造出通用人工智慧(強人工智慧,AGI)。然而,如果我們將智慧視為提供一個大的可能性空間的話,那就不會有通用狀態。人類智慧並沒有處在某個中心位置,被其他的特殊智慧眾星捧月。相反,人類智慧是一種非常非常特殊的智慧類型,已經過了數百萬年的演進才促使我們這個物種得以在地球上生存。如果把所有可能的智慧映射在進這個空間內的話,人類智慧只會在這個空間內偏居一隅,就像我們的世界也只是坐落在浩瀚的銀河系邊緣上一樣。

我們當然可以想像,甚至發明出瑞士軍刀式的思維。這有點類似於一堆事情它都能做,但沒有一樣做得非常好。AI也將遵循所有制造或誕生出來的東西都必須遵循的工程準則:你不可能在每一個維度上都做到最優化。你只能進行取捨。一個通用單元是沒有辦法勝過專門的功能的。一個宏大的“做一切事情”的頭腦在每一件事情上都無法做得跟專門的代理一樣的好。因為我們認為我們人類的思維是通用的,所以往往認為認知不會遵循工程師的權衡取捨,以為開發出令所有的思維模式最大化的智慧是有可能的。但我看不到這方面的跡象。我們根本還沒有發明出足夠多樣化的思維來看清整個空間(指思維的可能性空間,迄今為止我們往往把動物思維貶視為單一類型,以為它們不過是在同一個維度上,只是幅度各不相同罷了。)

這種通用思維最大化的理念部分源自統一計算的概念。這一概念的正式提出是在1950年,也就是所謂的邱奇-圖靈論題,這個猜想提出,任何滿足特定閾值的計算都是等價的。因此所有計算,無論是發生在帶許多快速或者緩慢部件的機器,或者甚至是發生在一個生物頭腦裡面的計算,它們都會有一個統一的核心,都是一樣的邏輯過程。也就意味著你應該可以在任何可執行“統一”計算的機器模擬所有的計算過程(思維)。奇點派(Singularitans,認為機器智慧超過人類即將到來的人,代表包括Ray Kurzweil、Elon Musk、霍金等)靠這一原則來支撐它們的期望——也就是我們將會製造出媲美人類思維的矽晶大腦,可以讓人工大腦像人類一樣思維,只是比我們聰明得多。對於這種期望我們應該持質疑的態度,因為它依賴的是對邱奇-圖靈假設的誤解。

這個理論的出發點是:“鑒於紙帶(記憶體)和時間的無限性,所有計算都是等價的。”問題是在現實裡,並沒有電腦有無限的記憶體或者時間。當你在現實世界運行時,真正的時間會有很大的差異,往往是生死攸關之別。是,如果忽視時間的話所有思維都是等價的。是,你可以在任何想要的母體模擬人類的那種思維,只要你忽視時間或者存儲、記憶體的現實約束的話。然而,如果你把時間考慮進去的話,那條原則就大不一樣了:在差異巨大的不同平臺上運行的兩套計算系統是無法即時等價的。這個也可以重新複述成這個樣子:擁有等價思維的唯一辦法是將其運行在等價的基底上。你運行計算所在的“肉身(physical matter)”,尤其是隨著它變得越來越複雜,會對可以即時完成好的認知類型產生極大影響。

這一條我還要進一步延伸:獲得像人類那樣的思維處理的唯一方式是在像人類那樣的濕重組織(wet tissue)內運行計算。這也意味著在幹的矽晶上運行的非常龐大複雜的人工智慧會產生出龐大、複雜的、跟人類不一樣的思維。如果有可能開發出利用像人類那樣的神經元的人工濕重大腦的話,我的預測是它們的思維會更像我們的。這樣一個濕重大腦的好處與我們造出的基底與人類的相似度成正比。創造濕件(wetware,人類神經系統)的成本高昂,而這種組織跟人類大腦組織越接近,則我們乾脆造人的成本效益就越高。畢竟嘛,十月懷胎,這種辦法需要的只是時間。

此外,如前所述,我們是用全身而不僅僅是大腦來思考的。我們有大量資料表明,我們腸道的神經系統是如何引導我們“理性”的決策過程,並且可以預測和學習的。我們對整個人體系統建模越多,就離複製它越近。一個運行在非常不同的身體(幹的矽晶而不是濕的碳基)內的智慧思考也會不同。

我認為這不是bug,相反們這是一項特性。就像我在第二點指出那樣,與人的思維方式不同是AI最主要的資產。而這個正是“比人類聰明”這個說法誤導人的又一個原因。

超人智慧這個概念,尤其是智慧會不斷改進自己的觀點,其核心理念是智慧沒有上限。我找不到這個的證據。再次地,把智慧誤解成單一維度幫助了這個理念,但我們應該把它理解成一個理念。按照目前科學的已知,在宇宙中還沒有一個物理維度是無限的。溫度不是無限的——冷和熱都是有限度的。空間和時間是有限的。速度是有限的。數學數軸也許是無限的,但所有其他的物理屬性都是有限的。顯然推論本身也是有限的而不是無限的。那麼問題來了,智慧的極限在哪裡呢?我們往往認為這種極限遠遠超過我們,遠在我們“之上”,就像我們遠在螞蟻“之上”一樣。單一維度的遞迴問題且拋開不談,我們有什麼證據證明我們就不是極限了呢?我們為什麼就不能是最大值?或者也許極限離我們只有很短距離了呢?我們為什麼會相信智慧是一個可以無限擴展的東西呢?

把我們的智慧看成是100萬種智慧類型之一,這種對智慧的看待方式要好得多。所以儘管認知和計算的每一個維度都有極限,但如果存在好幾百個維度的話,那麼就會有無數的思維出現——儘管任何一個維度都不是無限的。隨著我們開發或者遭遇無數思維各種各樣的變體,我們自然會認為其中一些超過了我們。在最近寫的《必然》這本書裡面,我粗略描述了部分思維變體在一定程度上會超過我們。以下就是不完整清單:

今天的一些傢伙可能想把這些實體都叫做超人AI,但這些思維絕對的多樣性和相異性會將我們引領到有關智慧的新表達和新洞察。

其次,超人智慧的信徒假定智慧會(以某個未經確認的單一指標)指數增長,也許是因為他們也假設它已經在呈指數增長了。然而,迄今為止並沒有任何證據表明智慧在指數增長——無論你如何進衡量。所謂指數增長我的意思是說人工智慧在一定時間間隔內實現了能力翻番。證據呢?我找不到。如果現在沒有的話,為什麼我們就可以假設很快就會發生呢?唯一呈指數曲線發展的東西是AI的輸入,也就是致力於產生智慧的資源。但輸出的效能並未呈摩爾定律增長。AI能力並沒有每3年翻番,或者甚至每10年翻番都沒有。

我問了很多AI專家,想找他們要智慧的性能呈指數增長的證據,但他們都同意說我們並沒有衡量智慧的指標,此外,智慧也不是這樣運作的。當我問指數增長巫師Ray Kurzweil本人指數性AI的證據在哪裡時,他回信說AI並不是爆發式增長而是按照水準提升的。他說:“計算和演算法複雜度需要取得指數改進才能給層級增加額外的一層……所以我們可以預期線性地增加層級,因為這需要指數式的複雜度增加才能增加新的一層,在做這件事情的能力方面我們的確取得了指數式進展。我們現在距離大腦新皮質能做的事情已經沒有那麼多層的差距了(注:指深度學習的層次),所以對我來說我的2029年時間點(注:指奇點到來的時間)看起來還是很合適的。”

Ray的意思似乎是說,不是人工智慧的能力在指數式增長,而是產生人工智慧的努力在指數增長,而這種努力的產出是每次提高了一個層級。這與智慧正在爆發的假設幾乎是背道而馳的。這在未來可能還會變化,但人工智慧顯然目前還沒有指數增長。

因此,當我們想像“智慧爆發”時,我們不應該把它想像成級聯爆發,而應該想像成新變體的分散剝落。是一次寒武紀大爆發而不是核爆炸。加速技術的結果不大可能是超人,而是異人(extra-human)。這超出了我們的經驗,但未必就是“在我們之上”。

超級AI接管世界另一個未受挑戰的信念是,一個超級的、近乎無限的智慧可迅速解決我們懸而未決的重大問題,但這幾乎沒有證據支撐。

智慧爆發的許多支持者期望它可以帶來爆發式的進步。我把這種迷思成為“思考主義(thinkism)”。認為未來的進步水準只是受制於思考能力或者智慧是謬誤的。(可能我還要指出的是,很多喜歡思考的傢伙都有那種想法,以為思考是包治百病的魔術配方。)

就拿治癒癌症或者長生不老來說吧。這些問題都不是光靠思考就能解決的。思考主義再多也發現不了細胞是如何老化的,或者染色體端粒是如何掉落的。任何智慧,不管它的能力如何超級,都不能僅通過閱讀目前全世界所有已知的科學文獻然後苦思冥想出人體是如何工作的。任何超級AI都不能光靠思考所有目前和過去的核裂變試驗然後在一天之內想出可行的核裂變。在弄清事物的運作機制方面,從未知走向已知除了思考以外還需要很多其他的東西。現實世界要進行無數的試驗,每一次都會提交無數自相矛盾的資料,需要進行進一步的試驗才能形成正確的工作假設。對潛在資料展開思考並不能提交出正確的資料。

思考(智慧)只是科學的一部分,可能甚至只是一小部分。舉個例子,我們還沒有足夠的合適資料來接近解決死亡問題。在有機體的問題上,這些實驗大部分都需要日曆時間。細胞緩慢的新陳代謝是沒有辦法加速的。這需要數年、數月或者至少數天的時間才能獲得結果。如果我們想知道亞原子粒子發生了什麼事情,光靠想是想不出來的。我們必須建造非常大型、非常複雜、非常精細的物理裝置才能找出來。即便最聰明的物理學家比現在的聰明1000倍,如果沒有對撞機的話,它們也知曉不了任何新東西。

超級AI無疑可以加速科學的進步。我們可以讓電腦類比原子或者細胞,我們可以通過多種因素加速它們,但在獲得即時進展上有兩個問題制約了模擬的用處。第一是模擬和建模比主體快是因為忽略了一些東西。而這正是模型或者模擬的本質。還要注意一點:測試、審查以及證明這些模型也必須以日曆時間的節奏來發生,這樣才能匹配主體的速度。對基礎事實的測試是沒有辦法加速的。

模擬的這些簡化版對於篩選出最有希望的路徑是有用的,所以可以加速取得進展。但在現實當中一切都會有度;一切真實的東西產生的影響只能到一定程度,這正是現實的定義之一。隨著給模型和模擬注入的細節越來越多,它們就會到達現實要比自己的100%模擬跑得更快的極限。這又是現實的另一個定義:體現所有細節和自由度的最快版本。如果你可以對細胞的所有分子以及人體的所有細胞進行建模,這種模擬的運行速度不會比人體快。你再怎麼思考這個,不管是在真實的系統還是類比系統進行,你還是要花時間去試驗。

人工智慧要想發揮作用就必須嵌入到世界裡面,而這個世界將設定好它們的創新節奏。如果不進行實驗,不開發原型,不經歷失敗,不跟現實互動的話,一個智慧是可以思考但卻不會有結果。所謂的“比人聰明”的AI出現1分鐘、1小時、1天或者1年之後都不會馬上有什麼新發現。當然,發現的節奏會因為AI的進展而顯著加速,這部分是因為外星人式的AI會提出人類想不到的問題,但即便是一個強大得多的智慧(跟我們相比)也不能意味著馬上就能取得進展。問題解決需要的東西遠不止是智慧。

光靠智慧不僅解決不了癌症和長壽問題,就連智慧問題本身光靠它也解決不了。奇點派常見的一個比方是,一旦你做出“比人聰明”的AI,那麼突然之間它就能努力思考並發明出一個“比自己聰明”的AI,而後者在苦思冥想之後又能發明出一個更聰明的,這樣能力爆發到幾乎變得像上帝一樣。我們沒有證據表明僅靠思考智慧就可以創造出水準上一個臺階的智慧。這類思考主義只是一種信念。我們有大量證據表明,除了大量智慧以外,我們還需要試驗、資料、試錯、怪異的質疑等等各種各樣智力以外的東西來發明出成功的新思維。

我的這些說法也有可能是錯的。因為下結論現在還早。我們也許會發現一個智慧的統一指標;我們有可能會發現它在各個方向上都是沒有極限的。因為我們對智慧(更不用說意識了)是什麼瞭解如此之少,某種類型的AI奇點出現的可能性是大於0的。我認為,所有證據表明,此類場景出現是不大可能的,但也不是不可能。

所以,儘管我不同意它的可能性,但對於OpenAI,以及擔心超人AI的聰明人的更大目標——也就是我們應該開發出友好的AI並想辦法給它灌輸與我們相匹配的可自我複製的價值觀,對這一點我是認同的。儘管我認為一個超人AI仍然是比較遙遠的存在威脅(同時也是值得考慮的),但它的不可能性(基於我們目前已有的證據)不應該成為我們科學、政策以及發展的指導方針。小行星撞擊地球的後果是災難性的。其發生概率大於零,但我們不應該讓小行星撞擊地球的概率來支配我們在應對氣候變化、推進太空旅行或者甚至是城市規劃的努力。

類似地,迄今為止的跡象表明,AI很有可能不會成為超人,而是會成為眾多的異人新思維,這些思維方式大部分都異於人類,但沒有一個會是通用的,也沒有一個會成為馬上就能解決重大問題的上帝。相反,將來會出現無數有限智慧,在我們不熟悉的維度上工作,其中許多都超過了我們的思維,它們會適時跟我們一起配合,去解決現有問題並創造出新問題。

我理解超人AI上帝的引人入勝。這就像是一個新的超人。但就像超人一樣,這是個虛構的人物。在宇宙深處也許存在著這麼一個超人,但可能性非常小。然而迷思也是有用的,而且一旦被發明出來就不會消失。超人的想法永遠都不會死。超人AI奇點的想法現在已經誕生,也永遠不會消亡了。但我們應該意識到在目前這還是只是一個宗教想法而不是科學點子。如果我們調查一下現有的有關智慧,無論是人工智慧還是自然智慧方面的證據,我們只能得出結論說,我們有關虛構的超人AI上帝的猜測只不過是迷思罷了。

密克羅尼西亞的許多相互隔絕的孤島在二戰期間才第一次跟外界接觸。外星人上帝坐在聒噪的鳥上飛過他們的天空,投下食物和商品到他們的島上,然後一去不復返。島上的宗教崇拜開始彌漫,祈禱上帝回來再扔下更多的貨物。即便是現在,在50年之後,許多人仍然在等著貨物回來。超人AI不過是又一次宗教崇拜的可能性是存在的。百年之後,當大家回望現在時,也許也會把此刻視為信徒期盼超人AI突 然出現,然後帶來價值無法想像的貨品之時。10年又10年,他們癡心等待著超人AI的出現,確信它很快就會帶著貨物來到我們身邊。

但是非超人式的人工智慧已經到來,這是真的。我們不斷地重新定義AI,提高它的難度,這在未來會禁錮住它,但就更廣泛的外星智慧——也就是各種智慧、認知、推理、學習以及意識的連續體而言,AI已經滲透到了這個星球上,而且還會繼續擴散、深化、變化並且增強。在改變世界的能力方面,此前沒有任何一種發明能夠與之匹敵,到本世紀末,AI將觸及和重塑我們日常生活的一切。但是超人AI,無論是會讓我們超級富足還是讓我們淪為超級奴隸(或者兼而有之),這種迷思可能仍將存在——因為這種可能性實在是太具有神話性了,以至於我們難以捨棄。

同類文章
Next Article
喜欢就按个赞吧!!!
点击关闭提示