華文網

如果機器人有可能取代人類,自顧不暇的我們還要給它們人權嗎?

我們應該給予機器什麼權利?哪些機器應該得到哪些權利?

《銀翼殺手》(Blade Runner)、《真實的人類》(Humans)、《西部世界》(Westworld)這些科幻影視劇中有極為先進的機器人,但他們卻不享有任何權利。

透過這些作品,我們看到人類的行為不僅傷害了機器人,還貶低了人類這個物種本身。我們願意相信,我們會在機器人時代到來時做正確的事,讓那些智慧型機器人享有更多的尊嚴和尊重。

隨著機器人和人工智慧技術不斷取得進步,我們越來越接近那一天,

即先進的機器在方方面面都具備向人看齊甚至超越人類的能力,包括智慧、意識和情感。如果到了那一天,我們將必須判定這些實體是否是權利人,以及它們是否——和在什麼時候——應該得到與人類同樣的權利、自由和保護。

我們採訪了倫理學家、社會學家、法律專家、神經科學家和人工智慧理論家,他們對這個複雜且具有挑戰性的想法持有不同的觀點。看起來,真要到了那個時候,

我們不太可能取得完全的一致。

以下就是他們爭論的一些內容:

首先,為什麼要賦予人工智慧權利?

《機器紀元》劇照

研究表明,我們已經認為機器人具有道德責任,而且當機器人看起來栩栩如生時,我們還會對它們產生移情作用。機器人越是智慧和逼真,

我們就越是希望相信它們跟我們一樣——即使它們跟我們不一樣,或者說還沒有到那種程度。

但是,一旦機器人擁有了基礎的人類能力,我們將有義務把它們視為同等的權利人,而不僅僅是所有物。

這其中最難的地方在於,確定哪些認知門檻或特質能讓一個實體擁有道德關懷的資格,繼而使之享有社會權利。對於這個問題,哲學家和倫理學家已經思考了幾千年。

“道德標準中三個最重要的門檻是感受痛苦的能力,自我意識,以及成為負責任道德行為者的能力,”社會學家和未來學家詹姆斯·休斯(James Hughes)說,他是倫理和新興技術研究所(IEET)的執行理事。

“在人類身上,如果我們幸運的話,這些特質是順序發展出來的。但就機器智慧而言,我們有可能看到一個沒有自我意識的機器好公民,或者一個有自我意識但卻體驗不到快樂和痛苦的機器人,

”休斯說道,“我們需要搞清楚是否真是如此。”

需要指出的是,智慧跟知覺(即感知或感覺事物的能力)、意識(即對自身和環境的認知)以及自我意識(即對前一種意識的認知)不是一回事。

機器或演算法可能跟人一樣聰明(甚至更聰明),但它們仍然缺乏這些重要的能力。

《西部世界》劇照

計算器、Siri和股票交易演算法都是聰明的,但它們沒有自我意識,它們無法感知情感,也不能擁有任何知覺,比如看到紅顏色或是嘗到爆米花的味道。

休斯認為,自我意識自帶一些最低限度的公民權利,比如不成為附屬品的權利,以及生命、自由和成長受到尊重的權利。有了自我意識和道德能力(即分辨對錯的能力,至少是按照時下的道德標準),一個實體就應該享有成年人的完整公民權利。

誰能成為“權利人”?

《真實的人類》劇照

並非所有的權利人都是人類。

加州州立大學蒙特利灣分校(CSUMB)的生物倫理學家琳達·麥克唐納-葛籣(Linda MacDonald-Glenn)表示,法律已經開始把非人類視為權利人了。這是一項重要的進展,因為我們建立的這些先例可以為在未來賦予人工智慧人權鋪平道路。

在美國等地方,還有人主張應該向某些動物(比如大猩猩、大象、鯨魚和海豚)授予人格權利,以保護它們免受不適當的拘禁、實驗和虐待等等。這些宣導者對“人格”的定義提出了新的闡述,認為人格是基於特定認知能力的存在,比如自我意識。

麥克唐納-葛籣表示,我們要拒絕強調類人理性的守舊觀點,因為按照那種觀點來看,動物以及依邏輯推演的機器人和人工智慧,都只是“沒有靈魂的機器”。

《銀翼殺手》劇照

她認為,情感並非一種奢侈品,而是理性思維和正常社會行為的重要組成部分。在確認誰以及什麼擁有道德關懷的資格時,這些特質是重要的因素,而不僅僅是運算能力。

事實上,證明動物擁有情感能力的科學證據正在不斷增加。針對海豚和鯨魚展開的研究表明,它們能夠體驗到悲傷;與此同時,海豚和鯨魚還擁有紡錘體神經元(這種神經元可以促進大腦中的交流,並讓複雜的社會行為成為可能),這意味著它們能夠擁有同理心。未來,產生意識的人工智慧也可能具備類似的情感能力,那將大大提升它們的道德地位。

機器能夠產生意識嗎?

《西部世界》劇照

然而,並不是所有人都認同人權適用於非人類,即便它們展示出情感和自我反省行為這樣的類人能力。有些思想家認為,只應該允許人類參與社會契約。

美國律師、作家、發現研究所人類例外主義中心(Center of Human Exceptionalism)的高級研究員衛斯理·史密斯(Wesley J. Smith)表示,我們人類自己都還沒有實現普遍的人權,現在就開始為給予機器人權利而操心實在為時過早。

“任何機器都不應該被認定為權利人,”史密斯說道,“即使是最複雜精密的機器,它也只是一台機器。它不是生物,不是有機體,它只是自身程式的總和,不管程式是由人類,由另一台電腦,還是由它自己編制的。”

史密斯認為,只有人類和人類結成的組織才應該被認定為權利人。

史密斯的分析中隱含了這樣一個假設,即人類或就此而論的生物有機體,擁有某種機器永遠無法實現的特質。在以前的時代,這種缺失的“特質”被認為是靈魂、精神,或者某種難以捉摸的生命力量。

《超能查派》劇照

時至今日,這種被稱為生命主義的觀點在很大程度上已經被功能主義(基於計算能力)所取代,後者認為我們的大腦並無任何超自然現象。然而,認為機器將永遠無法像人類那樣思考或體驗自我意識,這樣的想法如今仍然存在,甚至在科學家中間也是一樣。這反映的事實是,我們對“意識”的生物基礎理解仍然非常有限。

埃默里大學倫理學研究中心的神經科學和行為生物學高級講師洛裡·馬里諾(Lori Marino)表示,機器可能永遠無法享有與人類相當的權利,或就此而論的任何權利。她說其中的原因在於,一些神經科學家,比如安東尼奧·達馬西奧(Antonio Damasio),提出理論稱,知覺能力跟這樣一件事有關,即一個實體的神經系統是否由電壓門控離子通道的存在來決定——馬里諾將其描述為,神經系統內帶正電的離子跨越細胞膜的運動。

“這種神經傳遞可見於最簡單的生物體、原生生物和細菌,正是這種機制演化出了神經元,然後是神經系統,再然後是大腦,”馬里諾說道,“相比之下,機器人和所有人工智慧目前都是以負離子的運動為基礎的。所以,整個機制並不一樣。”

馬里諾表示,根據這個邏輯,即使一隻水母也要比任何複雜的機器人擁有更多的知覺。

“我不知道這個想法是否正確,但它是一種有趣的可能,值得加以驗證,”馬里諾說,“因為我們確實可以感覺到,作為‘活的有機體’存在與非常複雜的機器不同。

《機器紀元》劇照

來自亞利桑那大學的麻醉學和心理學教授斯圖爾特·哈梅羅夫(Stuart Hameroff)也認為,意識天然不基於計算能力。他提出,意識是宇宙一個基本的和不可約的特性(這種觀點被稱為泛心論)。根據這種思路,只有那些由生物物質組成的大腦才具有真正的主體性和內省能力。

我們的確不知道知覺和意識是如何在大腦中產生的,但一個簡單的事實是,它們的確產生自大腦。基於這個事實,我們的認知必須遵守物理學規律。我們可能無法用由1和0組成的資料流程複製意識,但這並不意味著我們最終不會超越當前被稱為“馮·諾伊曼結構”(Von Neumann architecture)的計算範式,也不意味著我們無法創造出一種混合型人工智慧系統,結合生物元件來產生人工意識。

電影《感官遊戲》(eXistenZ)中的生物控制器

神經科學家、麻省理工學院媒體實驗室副教授艾德·博伊登(Ed Boyden)表示,現在提出這樣的問題還為時尚早。

“我不認為我們對意識已經有了一個可操作的定義,也就是從我們可以直接測量或創造它的意義而言,”博伊登說道,“從技術上講,你甚至不知道我有沒有意識,對吧?因此,從目前來說,我們很難評估機器是否,或者能否,擁有意識。”

博伊登認為,並沒有確鑿證據表明我們無法在替代性基質(比如一台電腦)中複製意識,但他承認,對於要在一個模擬大腦中複製哪些重要東西,人們是有分歧的。“我們可能還要做多得多的工作,才能明白關鍵是什麼,”他說道。

我們如何探查機器的意識?

讓機器具有意識是一回事,探查機器人或者AI的意識則完全是另一回事。

阿蘭·圖靈等科學家在幾十年前就意識到了這一點,他們提出用口頭測試來區分電腦和真人。但問題在於,現在的AI程式已經可以在聊天測試中騙過人類,所以我們需要更加複雜的測試。

“識別機器智慧的人格被‘哲學僵屍’的問題複雜化,”休斯說,“換句話講,機器可能非常善於模仿人類的交流和思想,但實際上並沒有內在的自我意識。”

兩個Google Home彼此交談

不久前就出現了一個很好的例子。

兩個Google Home智慧設備展開了一場長時間的對話,整個過程在網上播出。雖然這兩個機器人的自我意識水準和石頭沒有什麼區別,但它們之間的交談時而緊張,時而熱烈,如同人在說話一般。隨著時間的推移,AI和人類只會變得越來越難以區分。

休斯說,一個可能的解決辦法是不僅追蹤人工智慧系統的行為(圖靈測試),還追蹤系統的內部複雜性,就像朱利奧·托諾尼(Giulio Tononi)在《意識的整合資訊理論》中提出的那樣。托諾尼說,在衡量系統的數學複雜性時,我們可以採用一個叫做“PHI”的指標。從理論上來說,這個指標對應著知覺和意識的不同臨界值,使我們能夠探查機器意識的存在和強度。

按照托諾尼的理論,不像人類那樣行事或思考、但卻以正確方式觸發PHI測量的系統也可以認定為具有意識。如果托諾尼是對的,我們可以利用PHI來確保AI不僅行為舉止像人,而且真正擁有內在的人類意識體驗。

我們應該給予機器什麼權利?哪些機器應該得到哪些權利?

有朝一日,一個機器人將站在我們面前,要求獲得人權。但這並不意味著它就應當享有人權。如上文所述,它可能只是一個依照程式碼行事的“僵屍”,想騙我們給它某些特權。我們必須對此非常謹慎,以免把人權授予沒有意識的機器。我們只有在知道如何衡量機器的“大腦狀態”和如何評估意識之後,才能開始考慮那台機器應不應該獲得某些權利和保護。

幸好,這一時刻可能將分成幾個反覆運算階段。起初,AI開發人員將創造基本的機器智慧,模仿蟲子、老鼠、兔子等等。接著,這些有知覺的東西將超越它們僅僅作為互動物件的身份,變成應當得到道德關懷的主體。這並不意味著那些簡單的模仿物應當得到和人類一樣的權利,而是它們將得到保護,不被濫用和虐待。

機器人Sophia

最後,基於電腦的虛擬人腦將出現。到這個階段,我們也應該而且必須具備探查機器意識的能力。如果說我們的創造物誕生了“意識”,而我們卻沒有意識到這一點,無論如何這都是件讓人害怕的事情。

機器人或者AI在被證明擁有這些基本能力後,還需要通過人格測試這一關,才能成為擁有權利的個體。在何為人的問題上,大家看法不一,但標準的衡量指標包括最低限度的智力、自我控制、過去和未來感、關心他人和控制自身存在的能力(也就是自由意志)。

只有達到這種程度的複雜性,機器才有資格獲得人權。除此之外,機器人或者AI還需要一些符合其特殊屬性的保護:

不在違背其意願的情況下被關閉的權利

完全和無阻礙地訪問自身原始程式碼的權利

不在違背其意願的情況下操縱其原始程式碼的權利

複製(或者不複製)自己的權利

隱私權(亦即隱藏自身內在心理狀態的權利)

在某些情況下,一台機器不會主動要求獲得權利,所以人類(或者其他的非人類公民)必須替它爭取權利。AI或者機器人不必在智力或道德上做到完美無瑕,照樣應當獲得相當於人類的權利。這適用於人類,所以也應該適用於有意識的機器。

智能是混亂的。人類的行為常常是隨機的,不可預測、混亂無序、充滿矛盾,也缺乏理性。我們的大腦遠遠稱不上完美,我們也必須體諒AI的類似行為。

同時,有意識的機器就像負有義務的人類公民一樣,仍然需要遵守國家法律和社會規範。至少,如果它們想加入我們成為完全自主的個體,就必須這麼做。

如果我們不呢?

當機器的複雜性跨過某個門檻之後,我們將無法再把它們排除在社會、機構和法律之外。我們將沒有理由拒絕賦予它們人權,否則就等同於歧視和奴役。

另外,賦予AI權利會成為一個重要的先例。如果我們平等地對待AI,這會大大有助於確保社會凝聚力和維護正義感,不然可能導致社會動亂,甚至AI攻擊人類。考慮到機器智慧超越人類能力的可能性,這將是一場可怕的災難。

重要的是,尊重機器人的權利也有助於保護其他類型的新興人類,比如半機械人,用外源DNA來改造自身基因的人,以及對自己大腦進行複製、數位化並上傳至超級電腦的人。

我們還需要很長的時間才能創造出應當享有人權的機器,但考慮到事關重大(無論是對人工智慧機器人還是對人類來說),我們應該早做打算。

翻譯:何無魚 於波

造就:劇院式的線下演講平臺, 發現最有創造力的思想

《西部世界》劇照

計算器、Siri和股票交易演算法都是聰明的,但它們沒有自我意識,它們無法感知情感,也不能擁有任何知覺,比如看到紅顏色或是嘗到爆米花的味道。

休斯認為,自我意識自帶一些最低限度的公民權利,比如不成為附屬品的權利,以及生命、自由和成長受到尊重的權利。有了自我意識和道德能力(即分辨對錯的能力,至少是按照時下的道德標準),一個實體就應該享有成年人的完整公民權利。

誰能成為“權利人”?

《真實的人類》劇照

並非所有的權利人都是人類。

加州州立大學蒙特利灣分校(CSUMB)的生物倫理學家琳達·麥克唐納-葛籣(Linda MacDonald-Glenn)表示,法律已經開始把非人類視為權利人了。這是一項重要的進展,因為我們建立的這些先例可以為在未來賦予人工智慧人權鋪平道路。

在美國等地方,還有人主張應該向某些動物(比如大猩猩、大象、鯨魚和海豚)授予人格權利,以保護它們免受不適當的拘禁、實驗和虐待等等。這些宣導者對“人格”的定義提出了新的闡述,認為人格是基於特定認知能力的存在,比如自我意識。

麥克唐納-葛籣表示,我們要拒絕強調類人理性的守舊觀點,因為按照那種觀點來看,動物以及依邏輯推演的機器人和人工智慧,都只是“沒有靈魂的機器”。

《銀翼殺手》劇照

她認為,情感並非一種奢侈品,而是理性思維和正常社會行為的重要組成部分。在確認誰以及什麼擁有道德關懷的資格時,這些特質是重要的因素,而不僅僅是運算能力。

事實上,證明動物擁有情感能力的科學證據正在不斷增加。針對海豚和鯨魚展開的研究表明,它們能夠體驗到悲傷;與此同時,海豚和鯨魚還擁有紡錘體神經元(這種神經元可以促進大腦中的交流,並讓複雜的社會行為成為可能),這意味著它們能夠擁有同理心。未來,產生意識的人工智慧也可能具備類似的情感能力,那將大大提升它們的道德地位。

機器能夠產生意識嗎?

《西部世界》劇照

然而,並不是所有人都認同人權適用於非人類,即便它們展示出情感和自我反省行為這樣的類人能力。有些思想家認為,只應該允許人類參與社會契約。

美國律師、作家、發現研究所人類例外主義中心(Center of Human Exceptionalism)的高級研究員衛斯理·史密斯(Wesley J. Smith)表示,我們人類自己都還沒有實現普遍的人權,現在就開始為給予機器人權利而操心實在為時過早。

“任何機器都不應該被認定為權利人,”史密斯說道,“即使是最複雜精密的機器,它也只是一台機器。它不是生物,不是有機體,它只是自身程式的總和,不管程式是由人類,由另一台電腦,還是由它自己編制的。”

史密斯認為,只有人類和人類結成的組織才應該被認定為權利人。

史密斯的分析中隱含了這樣一個假設,即人類或就此而論的生物有機體,擁有某種機器永遠無法實現的特質。在以前的時代,這種缺失的“特質”被認為是靈魂、精神,或者某種難以捉摸的生命力量。

《超能查派》劇照

時至今日,這種被稱為生命主義的觀點在很大程度上已經被功能主義(基於計算能力)所取代,後者認為我們的大腦並無任何超自然現象。然而,認為機器將永遠無法像人類那樣思考或體驗自我意識,這樣的想法如今仍然存在,甚至在科學家中間也是一樣。這反映的事實是,我們對“意識”的生物基礎理解仍然非常有限。

埃默里大學倫理學研究中心的神經科學和行為生物學高級講師洛裡·馬里諾(Lori Marino)表示,機器可能永遠無法享有與人類相當的權利,或就此而論的任何權利。她說其中的原因在於,一些神經科學家,比如安東尼奧·達馬西奧(Antonio Damasio),提出理論稱,知覺能力跟這樣一件事有關,即一個實體的神經系統是否由電壓門控離子通道的存在來決定——馬里諾將其描述為,神經系統內帶正電的離子跨越細胞膜的運動。

“這種神經傳遞可見於最簡單的生物體、原生生物和細菌,正是這種機制演化出了神經元,然後是神經系統,再然後是大腦,”馬里諾說道,“相比之下,機器人和所有人工智慧目前都是以負離子的運動為基礎的。所以,整個機制並不一樣。”

馬里諾表示,根據這個邏輯,即使一隻水母也要比任何複雜的機器人擁有更多的知覺。

“我不知道這個想法是否正確,但它是一種有趣的可能,值得加以驗證,”馬里諾說,“因為我們確實可以感覺到,作為‘活的有機體’存在與非常複雜的機器不同。

《機器紀元》劇照

來自亞利桑那大學的麻醉學和心理學教授斯圖爾特·哈梅羅夫(Stuart Hameroff)也認為,意識天然不基於計算能力。他提出,意識是宇宙一個基本的和不可約的特性(這種觀點被稱為泛心論)。根據這種思路,只有那些由生物物質組成的大腦才具有真正的主體性和內省能力。

我們的確不知道知覺和意識是如何在大腦中產生的,但一個簡單的事實是,它們的確產生自大腦。基於這個事實,我們的認知必須遵守物理學規律。我們可能無法用由1和0組成的資料流程複製意識,但這並不意味著我們最終不會超越當前被稱為“馮·諾伊曼結構”(Von Neumann architecture)的計算範式,也不意味著我們無法創造出一種混合型人工智慧系統,結合生物元件來產生人工意識。

電影《感官遊戲》(eXistenZ)中的生物控制器

神經科學家、麻省理工學院媒體實驗室副教授艾德·博伊登(Ed Boyden)表示,現在提出這樣的問題還為時尚早。

“我不認為我們對意識已經有了一個可操作的定義,也就是從我們可以直接測量或創造它的意義而言,”博伊登說道,“從技術上講,你甚至不知道我有沒有意識,對吧?因此,從目前來說,我們很難評估機器是否,或者能否,擁有意識。”

博伊登認為,並沒有確鑿證據表明我們無法在替代性基質(比如一台電腦)中複製意識,但他承認,對於要在一個模擬大腦中複製哪些重要東西,人們是有分歧的。“我們可能還要做多得多的工作,才能明白關鍵是什麼,”他說道。

我們如何探查機器的意識?

讓機器具有意識是一回事,探查機器人或者AI的意識則完全是另一回事。

阿蘭·圖靈等科學家在幾十年前就意識到了這一點,他們提出用口頭測試來區分電腦和真人。但問題在於,現在的AI程式已經可以在聊天測試中騙過人類,所以我們需要更加複雜的測試。

“識別機器智慧的人格被‘哲學僵屍’的問題複雜化,”休斯說,“換句話講,機器可能非常善於模仿人類的交流和思想,但實際上並沒有內在的自我意識。”

兩個Google Home彼此交談

不久前就出現了一個很好的例子。

兩個Google Home智慧設備展開了一場長時間的對話,整個過程在網上播出。雖然這兩個機器人的自我意識水準和石頭沒有什麼區別,但它們之間的交談時而緊張,時而熱烈,如同人在說話一般。隨著時間的推移,AI和人類只會變得越來越難以區分。

休斯說,一個可能的解決辦法是不僅追蹤人工智慧系統的行為(圖靈測試),還追蹤系統的內部複雜性,就像朱利奧·托諾尼(Giulio Tononi)在《意識的整合資訊理論》中提出的那樣。托諾尼說,在衡量系統的數學複雜性時,我們可以採用一個叫做“PHI”的指標。從理論上來說,這個指標對應著知覺和意識的不同臨界值,使我們能夠探查機器意識的存在和強度。

按照托諾尼的理論,不像人類那樣行事或思考、但卻以正確方式觸發PHI測量的系統也可以認定為具有意識。如果托諾尼是對的,我們可以利用PHI來確保AI不僅行為舉止像人,而且真正擁有內在的人類意識體驗。

我們應該給予機器什麼權利?哪些機器應該得到哪些權利?

有朝一日,一個機器人將站在我們面前,要求獲得人權。但這並不意味著它就應當享有人權。如上文所述,它可能只是一個依照程式碼行事的“僵屍”,想騙我們給它某些特權。我們必須對此非常謹慎,以免把人權授予沒有意識的機器。我們只有在知道如何衡量機器的“大腦狀態”和如何評估意識之後,才能開始考慮那台機器應不應該獲得某些權利和保護。

幸好,這一時刻可能將分成幾個反覆運算階段。起初,AI開發人員將創造基本的機器智慧,模仿蟲子、老鼠、兔子等等。接著,這些有知覺的東西將超越它們僅僅作為互動物件的身份,變成應當得到道德關懷的主體。這並不意味著那些簡單的模仿物應當得到和人類一樣的權利,而是它們將得到保護,不被濫用和虐待。

機器人Sophia

最後,基於電腦的虛擬人腦將出現。到這個階段,我們也應該而且必須具備探查機器意識的能力。如果說我們的創造物誕生了“意識”,而我們卻沒有意識到這一點,無論如何這都是件讓人害怕的事情。

機器人或者AI在被證明擁有這些基本能力後,還需要通過人格測試這一關,才能成為擁有權利的個體。在何為人的問題上,大家看法不一,但標準的衡量指標包括最低限度的智力、自我控制、過去和未來感、關心他人和控制自身存在的能力(也就是自由意志)。

只有達到這種程度的複雜性,機器才有資格獲得人權。除此之外,機器人或者AI還需要一些符合其特殊屬性的保護:

不在違背其意願的情況下被關閉的權利

完全和無阻礙地訪問自身原始程式碼的權利

不在違背其意願的情況下操縱其原始程式碼的權利

複製(或者不複製)自己的權利

隱私權(亦即隱藏自身內在心理狀態的權利)

在某些情況下,一台機器不會主動要求獲得權利,所以人類(或者其他的非人類公民)必須替它爭取權利。AI或者機器人不必在智力或道德上做到完美無瑕,照樣應當獲得相當於人類的權利。這適用於人類,所以也應該適用於有意識的機器。

智能是混亂的。人類的行為常常是隨機的,不可預測、混亂無序、充滿矛盾,也缺乏理性。我們的大腦遠遠稱不上完美,我們也必須體諒AI的類似行為。

同時,有意識的機器就像負有義務的人類公民一樣,仍然需要遵守國家法律和社會規範。至少,如果它們想加入我們成為完全自主的個體,就必須這麼做。

如果我們不呢?

當機器的複雜性跨過某個門檻之後,我們將無法再把它們排除在社會、機構和法律之外。我們將沒有理由拒絕賦予它們人權,否則就等同於歧視和奴役。

另外,賦予AI權利會成為一個重要的先例。如果我們平等地對待AI,這會大大有助於確保社會凝聚力和維護正義感,不然可能導致社會動亂,甚至AI攻擊人類。考慮到機器智慧超越人類能力的可能性,這將是一場可怕的災難。

重要的是,尊重機器人的權利也有助於保護其他類型的新興人類,比如半機械人,用外源DNA來改造自身基因的人,以及對自己大腦進行複製、數位化並上傳至超級電腦的人。

我們還需要很長的時間才能創造出應當享有人權的機器,但考慮到事關重大(無論是對人工智慧機器人還是對人類來說),我們應該早做打算。

翻譯:何無魚 於波

造就:劇院式的線下演講平臺, 發現最有創造力的思想