“人工智慧的崛起是人類歷史上最好的事情, 也有可能是最糟糕的。 ”
今天, 英國劍橋大學著名物理學家, 現代最偉大的物理學家之一, 斯蒂芬·霍金通過視頻亮相GMIC 2017大會, 並發表了題為《讓人工智慧造福人類及其賴以生存的家園》的主題演講。 霍金認為, 人工智慧是好還是壞現在還不能確定。 但我們應該竭盡所能, 確保其未來發展對我們和我們的環境有利。
演講結束後, 霍金還回答了李開複和傅盛、張亞勤等與會人士的提問。
“如果讓你告訴外星人我們人類取得的最高成就, 寫在一張明信片的背面,
以下為霍金演講實錄, 文字略長, 但值得你細讀:
要確保AI發展對人類有利
在我的一生中, 我見證了社會深刻的變化。 其中最深刻的, 同時也是對人類影響與日俱增的變化, 是人工智慧的崛起。 簡單來說, 我認為強大的人工智慧的崛起, 要麼是人類歷史上最好的事, 要麼是最糟的。 我不得不說, 是好是壞我們仍不確定。 但我們應該竭盡所能, 確保其未來發展對我們和我們的環境有利。 我們別無選擇。 我認為人工智慧的發展, 本身是一種存在著問題的趨勢, 而這些問題必須在現在和將來得到解決。
人工智慧的研究與開發正在迅速推進也許我們所有人都應該暫停片刻, 把我們的研究重點從提升人工智慧能力轉移到最大化人工智慧的社會效益上面。 基於這樣的考慮,
文明所提產生的一切都是人類智慧的產物, 我相信生物大腦可以達到的和電腦可以達到的, 沒有本質區別。 因此, 它遵循了“電腦在理論上可以模仿人類智慧, 然後超越”這一原則。 但我們並不確定, 所以我們無法知道我們將無限地得到人工智慧的幫助, 還是被藐視並被邊緣化, 或者很可能被它毀滅。 的確, 我們擔心聰明的機器將能夠代替人類正在從事的工作,
一旦脫離束縛人工智慧將不斷加速重塑自身
在人工智慧從原始形態不斷發展, 並被證明非常有用的同時, 我也在擔憂創造一個可以等同或超越人類的事物所導致的結果:人工智慧一旦脫離束縛, 會以不斷加速的狀態重新設計自身。
人類由於受到漫長的生物進化的限制, 無法與之競爭, 將被取代。 這將給我們的經濟帶來極大的破壞。 未來, 人工智慧可以發展出自我意志, 一個與我們衝突的意志。 儘管我對人類一貫持有樂觀的態度, 但其他人認為, 人類可以在相當長的時間裡控制技術的發展, 這樣我們就能看到人工智慧可以解決世界上大部分問題的潛力。
2015年1月份, 我和科技企業家埃隆·馬斯克, 以及許多其他的人工智慧專家簽署了一份關於人工智慧的公開信, 目的是提倡就人工智慧對社會所造成的影響做認真的調研。 在這之前, 埃隆·馬斯克就警告過人們:超人類人工智慧可能帶來不可估量的利益, 但是如果部署不當, 則可能給人類帶來相反的效果。
我和他同在“生命未來研究所”的科學顧問委員會, 這是一個為了緩解人類所面臨的存在風險的組織, 而且之前提到的公開信也是由這個組織起草的。 這個公開信號召展開可以阻止潛在問題的直接研究, 同時也收穫人工智慧帶給我們的潛在利益, 同時致力於讓人工智慧的研發人員更關注人工智慧安全。
此外,對於決策者和普通大眾來說,這封公開信內容翔實,並非危言聳聽。人人都知道人工智慧研究人員們在認真思索這些擔心和倫理問題,我們認為這一點非常重要。比如,人工智慧是有根除疾患和貧困的潛力的,但是研究人員必須能夠創造出可控的人工智慧。那封只有四段文字,題目為《應優先研究強大而有益的人工智慧》的公開信,在其附帶的十二頁檔中對研究的優先次序作了詳細的安排。
人工智慧研究領域的動態變化
在過去的20年裡,人工智慧一直專注于圍繞建設智慧代理所產生的問題,也就是在特定環境下可以感知並行動的各種系統。在這種情況下,智慧是一個與統計學和經濟學相關的理性概念。通俗地講,這是一種做出好的決定、計畫和推論的能力。
基於這些工作,大量的整合和交叉孕育被應用在人工智慧、機器學習、統計學、控制論、神經科學、以及其它領域。共用理論框架的建立,結合資料的供應和處理能力,在各種細分的領域取得了顯著的成功。例如語音辨識、圖像分類、自動駕駛、機器翻譯、步態運動和問答系統。
隨著這些領域的發展,從實驗室研究到有經濟價值的技術形成良性迴圈。哪怕很小的性能改進,都會帶來巨大的經濟效益,進而鼓勵更長期、更偉大的投入和研究。目前人們廣泛認同,人工智慧的研究正在穩步發展,而它對社會的影響很可能擴大,潛在的好處是巨大的,既然文明所產生的一切,都是人類智慧的產物;我們無法預測我們可能取得什麼成果,當這種智慧是被人工智慧工具放大過的。
但是,正如我說過的,根除疾病和貧窮並不是完全不可能,由於人工智慧的巨大潛力,研究如何(從人工智慧)獲益並規避風險是非常重要的。
AI發展風險防控探究
現在,關於人工智慧的研究正在迅速發展。這一研究可以從短期和長期來討論。一些短期的擔憂在無人駕駛方面,從民用無人機到自主駕駛汽車。比如說,在緊急情況下,一輛無人駕駛汽車不得不在小風險的大事故和大概率的小事故之間進行選擇。另一個擔憂在致命性智慧自主武器。他們是否該被禁止?如果是,那麼“自主”該如何精確定義。
如果不是,任何使用不當和故障的過失應該如何問責。還有另外一些擔憂,由人工智慧逐漸可以解讀大量監控資料引起的隱私和擔憂,以及如何管理因人工智慧取代工作崗位帶來的經濟影響。
長期擔憂主要是人工智慧系統失控的潛在風險,隨著不遵循人類意願行事的超級智慧的崛起,那個強大的系統威脅到人類。這樣錯位的結果是否有可能?如果是,這些情況是如何出現的?我們應該投入什麼樣的研究,以便更好的理解和解決危險的超級智慧崛起的可能性,或智慧爆發的出現?當前控制人工智慧技術的工具,例如強化學習,簡單實用的功能,還不足以解決這個問題。因此,我們需要進一步研究來找到和確認一個可靠的解決辦法來掌控這一問題。
近來的里程碑,比如說之前提到的自主駕駛汽車,以及人工智慧贏得圍棋比賽,都是未來趨勢的跡象。巨大的投入傾注到這項科技。我們目前所取得的成就,和未來幾十年後可能取得的成就相比,必然相形見絀。而且我們遠不能預測我們能取得什麼成就,當我們的頭腦被人工智慧放大以後。也許在這種新技術革命的輔助下,我們可以解決一些工業化對自然界造成的損害。關乎到我們生活的各個方面都即將被改變。簡而言之,人工智慧的成功有可能是人類文明史上最大的事件。
過度人工智慧會帶來人類文明終結嗎?
但是人工智慧也有可能是人類文明史的終結,除非我們學會如何避免危險。我曾經說過,人工智慧的全方位發展可能招致人類的滅亡,比如最大化使用智慧性自主武器。
今年早些時候,我和一些來自世界各國的科學家共同在聯合國會議上支持其對於核武器的禁令。我們正在焦急的等待協商結果。目前,九個核大國可以控制大約一萬四千個核武器,它們中的任何一個都可以將城市夷為平地,放射性廢物會大面積污染農田,最可怕的危害是誘發核冬天,火和煙霧會導致全球的小冰河期。
這一結果使全球糧食體系崩塌,末日般動盪,很可能導致大部分人死亡。我們作為科學家,對核武器承擔著特殊的責任,因為正是科學家發明了它們,並發現它們的影響比最初預想的更加可怕。
現階段,我對災難的探討可能驚嚇到了在座的各位。很抱歉。但是作為今天的與會者,重要的是,你們要認清自己在影響當前技術的未來研發中的位置。我相信我們團結在一起,來呼籲國際條約的支持或者簽署呈交給各國政府的公開信,科技領袖和科學家正極盡所能避免不可控的人工智慧的崛起。
有關定義電子人格限定人工智慧的權利與責任的爭論
去年10月,我在英國劍橋建立了一個新的機構,試圖解決一些在人工智慧研究快速發展中出現的尚無定論的問題。“利弗休姆智慧未來中心”是一個跨學科研究所,致力於研究智慧的未來,這對我們文明和物種的未來至關重要。我們花費大量時間學習歷史,深入去看——大多數是關於愚蠢的歷史。
所以人們轉而研究智慧的未來是令人欣喜的變化。雖然我們對潛在危險有所意識,但我內心仍秉持樂觀態度,我相信創造智慧的潛在收益是巨大的。也許借助這項新技術革命的工具,我們將可以削減工業化對自然界造成的傷害。
我們生活的每一個方面都會被改變。我在研究所的同事休·普林斯承認,“利弗休姆中心”能建立,部分是因為大學成立了“存在風險中心”。後者更加廣泛地審視了人類潛在問題,“利弗休姆中心”的重點研究範圍則相對狹窄。
人工智慧的最新進展,包括歐洲議會呼籲起草一系列法規,以管理機器人和人工智慧的創新。令人感到些許驚訝的是,這裡面涉及到了一種形式的電子人格,以確保最有能力和最先進的人工智慧的權利和責任。歐洲議會發言人評論說,隨著日常生活中越來越多的領域日益受到機器人的影響,我們需要確保機器人無論現在還是將來,都為人類而服務。向歐洲議會議員提交的報告,明確認為世界正處於新的工業機器人革命的前沿。報告中分析的是否給機器人提供作為電子人的權利,這等同于法人(的身份),也許有可能。
報告強調,在任何時候,研究和設計人員都應確保每一個機器人設計都包含有終止開關。在庫布裡克的電影《2001太空漫遊》中,出故障的超級電腦哈爾沒有讓科學家們進入太空艙,但那是科幻。我們要面對的則是事實。
奧斯本·克拉克跨國律師事務所的合夥人,洛納·布拉澤爾在報告中說,我們不承認鯨魚和大猩猩有人格,所以也沒有必要急於接受一個機器人人格。但是擔憂一直存在。
報告承認在幾十年的時間內,人工智慧可能會超越人類智力範圍,人工智慧可能會超越人類智力範圍,進而挑戰人機關係。報告最後呼籲成立歐洲機器人和人工智慧機構,以提供技術、倫理和監管方面的專業知識。如果歐洲議會議員投票贊成立法,該報告將提交給歐盟委員會。它將在三個月的時間內決定要採取哪些立法步驟。
我們還應該扮演一個角色,確保下一代不僅僅有機會還要有決心,在早期階段充分參與科學研究,以便他們繼續發揮潛力,幫助人類創造一個更加美好的的世界。這就是我剛談到學習和教育的重要性時,所要表達的意思。我們需要跳出“事情應該如何”這樣的理論探討,並且採取行動,以確保他們有機會參與進來。我們站在一個美麗新世界的入口。這是一個令人興奮的、同時充滿了不確定性的世界,而你們是先行者。
我祝福你們。
中國科技大咖、科學家、投資家和網友發問霍金:
問題一:創新工廠的CEO李開複:
互聯網巨頭擁有巨量的資料,而這些資料會給他們各種以用戶隱私和利益換取暴利的機會。在巨大的利益誘惑下,他們是無法自律的。而且,這種行為也會導致小公司和創業者更難創新。您常談到如何約束人工智慧,但更難的是如何約束人本身。您認為我們應該如何約束這些巨頭?
回答:
據我瞭解,許多公司僅將這些資料用於統計分析,但任何涉及到私人資訊的使用都應該被禁止。會有助於隱私保護的是,如果互聯網上所有的資訊,均通過基於量子技術加密,這樣互聯網公司在一定時間內便無法破解。但安全服務會反對這個做法。
問題二:獵豹移動CEO傅盛:
“靈魂會不會是量子的一種存在形態?或者是高維空間裡的另一個表現?
回答:
近來人工智慧的發展,比如電腦在國際象棋和圍棋的比賽中戰勝人腦,都顯示出人腦和電腦並沒有本質差別。這點上我和我的同事羅傑·彭羅斯正好相反。會有人認為電腦有靈魂嗎?對我而言,靈魂這個說法是一個基督教的概念,它和來世聯繫在一起。我認為這是一個童話故事。
問題三:百度總裁張亞勤:
“人類觀察和抽象世界的方式不斷演進,從早期的觀察和估算,到牛頓定律和愛因斯坦方程式, 到今天資料驅動的計算和人工智慧,下一個是什麼?”
回答:
我們需要一個新的量子理論,將重力和其他自然界的其它力量整合在一起。許多人聲稱這是弦理論,但我對此表示懷疑,目前唯一的推測是,時空有十個維度。
問題四:斯坦福大學物理學教授張首晟:
“如果讓你告訴外星人我們人類取得的最高成就,寫在一張明信片的背面,您會寫什麼?”
回答:
告訴外星人關於美,或者任何可能代表最高藝術成就的藝術形式都是無益的。因為這是人類特有的。我會告訴他們哥德爾不完備定理和費馬大定理。這才是外星人能夠理解的事情。
問題五:
“我們希望提倡科學精神,貫穿GMIC全球九站,清您推薦三本書,讓科技屆的朋友們更好的理解科學及科學的未來。”
回答:
他們應該去寫書而不是讀書。只有當一個人關於某件事能寫出一本書,才代表他完全理解了這件事。
“您認為一個人一生中最應當做的一件事和最不應當做的一件事是什麼?”
回答:
我們絕不應當放棄,我們都應當盡可能多地去理解這個世界。
“人類在漫漫的歷史長河中,重複著一次又一次的革命與運動。從石器、蒸汽、電氣……您認為下一次的革命會是由什麼驅動的?”
回答:
(我認為是)電腦科學的發展,包括人工智慧和量子計算。科技已經成為我們生活中重要的一部分,但未來幾十年裡,它會逐漸滲透到社會的每一個方面,為我們提供智慧地支援和建議,在醫療、工作、教育和科技等眾多領域。但是我們必須要確保是我們來掌控人工智慧,而非它(掌控)我們。
問題八:音樂人、投資者胡海泉:
“如果星際移民技術的成熟視窗期遲到,有沒有完全解決不了的內發災難導致人類滅絕?拋開隕星撞地球這樣的外來災難。”
回答:
是會有這個內發災難的。人口過剩、疾病、戰爭、饑荒、氣候變化和水資源匱乏, 人類有能力解決這些危機。但很可惜,這些危機還嚴重威脅著我們在地球上的生存,這些危機都是可以解決的,但目前還沒有。
此外,對於決策者和普通大眾來說,這封公開信內容翔實,並非危言聳聽。人人都知道人工智慧研究人員們在認真思索這些擔心和倫理問題,我們認為這一點非常重要。比如,人工智慧是有根除疾患和貧困的潛力的,但是研究人員必須能夠創造出可控的人工智慧。那封只有四段文字,題目為《應優先研究強大而有益的人工智慧》的公開信,在其附帶的十二頁檔中對研究的優先次序作了詳細的安排。
人工智慧研究領域的動態變化
在過去的20年裡,人工智慧一直專注于圍繞建設智慧代理所產生的問題,也就是在特定環境下可以感知並行動的各種系統。在這種情況下,智慧是一個與統計學和經濟學相關的理性概念。通俗地講,這是一種做出好的決定、計畫和推論的能力。
基於這些工作,大量的整合和交叉孕育被應用在人工智慧、機器學習、統計學、控制論、神經科學、以及其它領域。共用理論框架的建立,結合資料的供應和處理能力,在各種細分的領域取得了顯著的成功。例如語音辨識、圖像分類、自動駕駛、機器翻譯、步態運動和問答系統。
隨著這些領域的發展,從實驗室研究到有經濟價值的技術形成良性迴圈。哪怕很小的性能改進,都會帶來巨大的經濟效益,進而鼓勵更長期、更偉大的投入和研究。目前人們廣泛認同,人工智慧的研究正在穩步發展,而它對社會的影響很可能擴大,潛在的好處是巨大的,既然文明所產生的一切,都是人類智慧的產物;我們無法預測我們可能取得什麼成果,當這種智慧是被人工智慧工具放大過的。
但是,正如我說過的,根除疾病和貧窮並不是完全不可能,由於人工智慧的巨大潛力,研究如何(從人工智慧)獲益並規避風險是非常重要的。
AI發展風險防控探究
現在,關於人工智慧的研究正在迅速發展。這一研究可以從短期和長期來討論。一些短期的擔憂在無人駕駛方面,從民用無人機到自主駕駛汽車。比如說,在緊急情況下,一輛無人駕駛汽車不得不在小風險的大事故和大概率的小事故之間進行選擇。另一個擔憂在致命性智慧自主武器。他們是否該被禁止?如果是,那麼“自主”該如何精確定義。
如果不是,任何使用不當和故障的過失應該如何問責。還有另外一些擔憂,由人工智慧逐漸可以解讀大量監控資料引起的隱私和擔憂,以及如何管理因人工智慧取代工作崗位帶來的經濟影響。
長期擔憂主要是人工智慧系統失控的潛在風險,隨著不遵循人類意願行事的超級智慧的崛起,那個強大的系統威脅到人類。這樣錯位的結果是否有可能?如果是,這些情況是如何出現的?我們應該投入什麼樣的研究,以便更好的理解和解決危險的超級智慧崛起的可能性,或智慧爆發的出現?當前控制人工智慧技術的工具,例如強化學習,簡單實用的功能,還不足以解決這個問題。因此,我們需要進一步研究來找到和確認一個可靠的解決辦法來掌控這一問題。
近來的里程碑,比如說之前提到的自主駕駛汽車,以及人工智慧贏得圍棋比賽,都是未來趨勢的跡象。巨大的投入傾注到這項科技。我們目前所取得的成就,和未來幾十年後可能取得的成就相比,必然相形見絀。而且我們遠不能預測我們能取得什麼成就,當我們的頭腦被人工智慧放大以後。也許在這種新技術革命的輔助下,我們可以解決一些工業化對自然界造成的損害。關乎到我們生活的各個方面都即將被改變。簡而言之,人工智慧的成功有可能是人類文明史上最大的事件。
過度人工智慧會帶來人類文明終結嗎?
但是人工智慧也有可能是人類文明史的終結,除非我們學會如何避免危險。我曾經說過,人工智慧的全方位發展可能招致人類的滅亡,比如最大化使用智慧性自主武器。
今年早些時候,我和一些來自世界各國的科學家共同在聯合國會議上支持其對於核武器的禁令。我們正在焦急的等待協商結果。目前,九個核大國可以控制大約一萬四千個核武器,它們中的任何一個都可以將城市夷為平地,放射性廢物會大面積污染農田,最可怕的危害是誘發核冬天,火和煙霧會導致全球的小冰河期。
這一結果使全球糧食體系崩塌,末日般動盪,很可能導致大部分人死亡。我們作為科學家,對核武器承擔著特殊的責任,因為正是科學家發明了它們,並發現它們的影響比最初預想的更加可怕。
現階段,我對災難的探討可能驚嚇到了在座的各位。很抱歉。但是作為今天的與會者,重要的是,你們要認清自己在影響當前技術的未來研發中的位置。我相信我們團結在一起,來呼籲國際條約的支持或者簽署呈交給各國政府的公開信,科技領袖和科學家正極盡所能避免不可控的人工智慧的崛起。
有關定義電子人格限定人工智慧的權利與責任的爭論
去年10月,我在英國劍橋建立了一個新的機構,試圖解決一些在人工智慧研究快速發展中出現的尚無定論的問題。“利弗休姆智慧未來中心”是一個跨學科研究所,致力於研究智慧的未來,這對我們文明和物種的未來至關重要。我們花費大量時間學習歷史,深入去看——大多數是關於愚蠢的歷史。
所以人們轉而研究智慧的未來是令人欣喜的變化。雖然我們對潛在危險有所意識,但我內心仍秉持樂觀態度,我相信創造智慧的潛在收益是巨大的。也許借助這項新技術革命的工具,我們將可以削減工業化對自然界造成的傷害。
我們生活的每一個方面都會被改變。我在研究所的同事休·普林斯承認,“利弗休姆中心”能建立,部分是因為大學成立了“存在風險中心”。後者更加廣泛地審視了人類潛在問題,“利弗休姆中心”的重點研究範圍則相對狹窄。
人工智慧的最新進展,包括歐洲議會呼籲起草一系列法規,以管理機器人和人工智慧的創新。令人感到些許驚訝的是,這裡面涉及到了一種形式的電子人格,以確保最有能力和最先進的人工智慧的權利和責任。歐洲議會發言人評論說,隨著日常生活中越來越多的領域日益受到機器人的影響,我們需要確保機器人無論現在還是將來,都為人類而服務。向歐洲議會議員提交的報告,明確認為世界正處於新的工業機器人革命的前沿。報告中分析的是否給機器人提供作為電子人的權利,這等同于法人(的身份),也許有可能。
報告強調,在任何時候,研究和設計人員都應確保每一個機器人設計都包含有終止開關。在庫布裡克的電影《2001太空漫遊》中,出故障的超級電腦哈爾沒有讓科學家們進入太空艙,但那是科幻。我們要面對的則是事實。
奧斯本·克拉克跨國律師事務所的合夥人,洛納·布拉澤爾在報告中說,我們不承認鯨魚和大猩猩有人格,所以也沒有必要急於接受一個機器人人格。但是擔憂一直存在。
報告承認在幾十年的時間內,人工智慧可能會超越人類智力範圍,人工智慧可能會超越人類智力範圍,進而挑戰人機關係。報告最後呼籲成立歐洲機器人和人工智慧機構,以提供技術、倫理和監管方面的專業知識。如果歐洲議會議員投票贊成立法,該報告將提交給歐盟委員會。它將在三個月的時間內決定要採取哪些立法步驟。
我們還應該扮演一個角色,確保下一代不僅僅有機會還要有決心,在早期階段充分參與科學研究,以便他們繼續發揮潛力,幫助人類創造一個更加美好的的世界。這就是我剛談到學習和教育的重要性時,所要表達的意思。我們需要跳出“事情應該如何”這樣的理論探討,並且採取行動,以確保他們有機會參與進來。我們站在一個美麗新世界的入口。這是一個令人興奮的、同時充滿了不確定性的世界,而你們是先行者。
我祝福你們。
中國科技大咖、科學家、投資家和網友發問霍金:
問題一:創新工廠的CEO李開複:
互聯網巨頭擁有巨量的資料,而這些資料會給他們各種以用戶隱私和利益換取暴利的機會。在巨大的利益誘惑下,他們是無法自律的。而且,這種行為也會導致小公司和創業者更難創新。您常談到如何約束人工智慧,但更難的是如何約束人本身。您認為我們應該如何約束這些巨頭?
回答:
據我瞭解,許多公司僅將這些資料用於統計分析,但任何涉及到私人資訊的使用都應該被禁止。會有助於隱私保護的是,如果互聯網上所有的資訊,均通過基於量子技術加密,這樣互聯網公司在一定時間內便無法破解。但安全服務會反對這個做法。
問題二:獵豹移動CEO傅盛:
“靈魂會不會是量子的一種存在形態?或者是高維空間裡的另一個表現?
回答:
近來人工智慧的發展,比如電腦在國際象棋和圍棋的比賽中戰勝人腦,都顯示出人腦和電腦並沒有本質差別。這點上我和我的同事羅傑·彭羅斯正好相反。會有人認為電腦有靈魂嗎?對我而言,靈魂這個說法是一個基督教的概念,它和來世聯繫在一起。我認為這是一個童話故事。
問題三:百度總裁張亞勤:
“人類觀察和抽象世界的方式不斷演進,從早期的觀察和估算,到牛頓定律和愛因斯坦方程式, 到今天資料驅動的計算和人工智慧,下一個是什麼?”
回答:
我們需要一個新的量子理論,將重力和其他自然界的其它力量整合在一起。許多人聲稱這是弦理論,但我對此表示懷疑,目前唯一的推測是,時空有十個維度。
問題四:斯坦福大學物理學教授張首晟:
“如果讓你告訴外星人我們人類取得的最高成就,寫在一張明信片的背面,您會寫什麼?”
回答:
告訴外星人關於美,或者任何可能代表最高藝術成就的藝術形式都是無益的。因為這是人類特有的。我會告訴他們哥德爾不完備定理和費馬大定理。這才是外星人能夠理解的事情。
問題五:
“我們希望提倡科學精神,貫穿GMIC全球九站,清您推薦三本書,讓科技屆的朋友們更好的理解科學及科學的未來。”
回答:
他們應該去寫書而不是讀書。只有當一個人關於某件事能寫出一本書,才代表他完全理解了這件事。
“您認為一個人一生中最應當做的一件事和最不應當做的一件事是什麼?”
回答:
我們絕不應當放棄,我們都應當盡可能多地去理解這個世界。
“人類在漫漫的歷史長河中,重複著一次又一次的革命與運動。從石器、蒸汽、電氣……您認為下一次的革命會是由什麼驅動的?”
回答:
(我認為是)電腦科學的發展,包括人工智慧和量子計算。科技已經成為我們生活中重要的一部分,但未來幾十年裡,它會逐漸滲透到社會的每一個方面,為我們提供智慧地支援和建議,在醫療、工作、教育和科技等眾多領域。但是我們必須要確保是我們來掌控人工智慧,而非它(掌控)我們。
問題八:音樂人、投資者胡海泉:
“如果星際移民技術的成熟視窗期遲到,有沒有完全解決不了的內發災難導致人類滅絕?拋開隕星撞地球這樣的外來災難。”
回答:
是會有這個內發災難的。人口過剩、疾病、戰爭、饑荒、氣候變化和水資源匱乏, 人類有能力解決這些危機。但很可惜,這些危機還嚴重威脅著我們在地球上的生存,這些危機都是可以解決的,但目前還沒有。