您的位置:首頁>科技>正文

蓋茨想讓機器人交稅,還有公司談起它們的言論自由,這只是想多了麼?

機器人應該交稅嗎?“工人工作要繳所得稅、繳社保。 機器人也做同樣的工作, 也應該同樣收稅。 寧願增加稅收, 也要降低自動化的速度。

不久前, 比爾·蓋茨在一次媒體採訪中說道。

蓋茨說的不是瘋話。 如果不糾結像人一樣走路、說話, 機器人搶走的工作已經不少。

以機器人普及的汽車製造業來說, 1955 年通用汽車雇了 57.6 萬人造車。 現在, 通用汽車產量翻了一倍不止, 雇員少了一半, 而且當中只有 5 萬在工廠工作。

因為就業反對生產力是一個跨越兩百年的運動。 1811 年, 英國諾丁漢的織布工人就用大錘砸爛過織布機。

但之後兩個世紀, 新技術和機器替代了人類的工作這件事已經變得平常。

30 年前, 個人電腦、智慧手機成了新一批提高人類效率的機器。 比爾·蓋茨也是其中重要的推動者之一。

這個話題又被提起來, 無非是最近幾年, 機器人從能力上越來越像, 甚至超越了人。

在 Siri 之後, 微軟的 Cortana、微軟小冰等等已經可以處理簡單任務, 聊天對答越來越像樣。

假裝成人類棋手的人工智慧, 把中國最優秀的圍棋手全都打敗了。

至今, 科學家還弄不清楚人腦到底怎麼運作。 什麼是思維和記憶, 意識是怎麼產生的還處於假設。 所以要製造出來跟人完全一樣的人工智慧還是一個遙遠的設想。

但在代碼和硬體表面看來, 機器人是越來越像人了。 它們也在做越來越多之前由人來做的事。

Uber 宣佈研發自動駕駛汽車的時候, 它的 CEO 直接說司機是自己最大的成本, 如果全部換成人工智慧開車,

服務可以更便宜。 而《華盛頓郵報》已經用人工智慧寫了數百篇體育新聞。

蓋茨提到的工作問題已經顯而易見。

具體應該怎麼做, 卻還沒有定論。

但即使還沒有答案, 這個問題仍需要被關注和討論。 於是我們摘抄了各種不同的觀點。 機器人應不應該被收稅或者限制?人類工作未來會是如何?或許以下的卡片能給你帶來一些靈感。

機器人取代人討論了幾十年, 但真正發生的時候這不會是一件輕鬆的事

喬治梅森大學的經濟學教授泰勒·科文說, 現在已經不是考慮機器是否應該替代工人的時候了, 因為全球老齡化來得更快更嚴重, 勞動力人口都不夠了, 機器人做了人類工作是必要的。

“我以前堅信機器人會改變生產。 我當時跟 Daniel Kahneman(《思考, 快與慢》的作者)說, 機器人會顛覆在中國的工廠。

他說, 你沒搞明白狀況, 對於中國來說, 機器人來得正是時候。 因為人, 尤其是工作人口不夠了, 去年, 中國的工作人口減少了 500 萬, 跟計劃生育政策有關係。 但這並不只是中國的問題, 也是韓國、日本和美國的問題,世界正在老化(除了非洲),但沒有人明白這點。我們需要機器人。

我不是說技術、機器人變化不重要,但人口變化比技術變化重要得多,因為它的影響來得快得多。這是其一,還有一個資料是“依賴比例”,也就是提供照料和需要照料的人的比例。去年是世界首次,65 歲以上的人口比 5 歲以下新生人口多,本世紀中葉,80 歲以上的人會翻倍,到世紀末,會增長 7 倍,所以說自動駕駛汽車,可能是世界上首批照料長者的工具……什麼時候,有個能安全的給長者洗澡的機器人重要得多。”

瑪律科夫也曾經在著作《與機器人共舞》裡提到過這種照顧老人的機器人的問題,最後也是人和機器人關係的問題:

“但是,這些機器什麼時候才能符合人們對他的期待呢?那些被照顧的人又應該怎麼去接受這些機器呢?這些仍舊是問題。儘管有大量資料表明,隨著語音辨識和語音合成技術的不斷改善,感測器成本的下降,如果機器人專家能研製出更加靈活的機器,我們還是會心懷感激地接受它們……機器人擔任老年護理員、服務工人、司機和士兵,這是一種必然趨勢。但是人類與這些機器人的關係目前還很難預測。魔像一類的傳說已經把樂於服務的奴隸形象編織進了人類的思想和神話,在傳說中,這些奴隸實現了人類提出的每一個願望。”

自動決定人類生死的機器已經被廣泛使用,沒有多少人不安

羅奈爾得·阿金博士在喬治亞理工大學實驗室研究了 20 多年機器人學,他說,重來一次,他可能會想想要不要做這樣的研究,因為自己加速了戰爭自動化速度。以下的發言,選自他 2013 年的演講“怎樣才能不造一台‘終結者’”。

我們已經有很多用於戰爭的機器人,不只是美國,上次我看到的數字是 53-76 個國家正在研發、派遣這樣的機器人,情況已經很普遍了。

機器人已經在地面、空中、海上、海底都有,例如,新的復仇者無人駕駛戰鬥機 Predator C 就是一個很經典的機器。

還有一個韓國的 Comat Robot,我來念一下它的功能:自動檢測,自動安全開火,自動找到海軍工程目標甚至人類目標的能力,然後你還可以選擇用什麼武器平臺……

我工作中得出的結論是,就是自動化致死(Lethal Autonomy)是不可避免的。

為什麼這麼說?因為它存在於此時、此地。每個人對於機器人的定義不一,但要我說,即使是反步兵地雷也算是機器人,因為它們能感知並且啟動爆炸……它們對所有人都有危險性,不能分辨這是一個小孩,還是一個士兵。

還有一些系統,例如愛國者導彈,它是有人類的操作者的,導彈瞄準了之後,操作者有 9 秒鐘去按按鈕關掉系統。只有 9 秒鐘怎麼能判斷這個目標是不是正確的呢?還是說人類被陷害了?他們只是這個殺人鏈條裡的最後一步,是為錯誤判斷負責任的“替罪羊”。

作為機器學家,我們正在讓戰爭變得越來越快,這是我們工作的後果。這也意味著,智慧化、自動化正在被推進得越來越遠,已經到了頂尖的地步,我們讓軍方來給這些機器做決定,無論他是一個“發射不理(Fire-and-Forget)”系統,還是以色列的導彈系統,可以自己通過雷達的信號,找到地上的目標然後打擊,不需要問任何人……這些東西正在改變以及挑戰人類參戰的方式。

但“自動化致死”的定義跟哲學家的不同,哲學家認為自動化是有自由意志的道德載體。但機器人真的應該承擔行為的責任嗎?機器人真知道自己在做什麼?作為機器學家,我們對此的定義不一樣,我們要用機器去指明打擊目標,換句話說,就是扣下扳機。

當 1970 年代,基因工程學第一次能做克隆 DNA 的時候,生物道德委員會呼籲讓他們停止研究,他們明白了這點:天呐,我們的新技術讓我們可以複製人!我們應該後退一步,讓哲學家、公眾、生物工程師、政治家一起聊聊這個話題。

而我們面對“自動化致死”卻沒有這種不安,但我們真的應該談談,去提供這樣的討論的土壤也是社會的作用,而不是等著別人給我們做這件事。但我們現在就是等著,我們把自己的科技和未來委以政府和當局了。

這是不對的,我們科學家應該更有自主意識,我們要跟人們分享我們的觀點。這 20 年,我迷失在發現新知識的喜悅中,抬頭才看明白我自己在做的科技到底是什麼。走出實驗室,去真實的世界吧,重新思考一下要不要這麼做,我希望不要等你們 20 年後才去想。

在我探索的項目當中,我認為應該問這些問題:

我們應該讓士兵變成機器人嗎?

我們應該讓機器人變成士兵嗎?它們能變得更像人嗎?他們能在道德層面超越人類嗎?

機器人跟人應該是什麼關係?關鍵在於“設計師”

這是托斯丹·凡勃倫 100 年前寫的一篇文章,當時還沒有能讓人失業的電腦和人工智慧。但他說,政治力量會轉向工程師等專家崗位,工程師將會成為新經濟的控制者。在機器越來越聰明的時代,工程師的作用就愈發明顯:

起初,在機械工業的早期發展中,尤其是在工業革命直接催生的機械工業新增長當中,工業專家和企業經理之間的分歧並不明顯。

這一階段在新的工業體系走上逐步專業化和複雜化的道路之前,也是在商業規模遠未擴張之前;這樣,即使是當時並未受過技術訓練的商人,仍然可以對全域有著智慧的監督,以及理解他們所投資和從中獲益的機械生產流程的需求。尋常的情況是,工業流程和設備的設計者仍然掌控著財務,同時也管理店面。

但是,早期的發展階段中,分化就開始出現,比如將設計和管理工業流程的人,與設計和管理商業交易和掌控財務的人分開。這亦導致了商業管理和技術專家之間權力的分割。

這成為了技術專家的工作:在技術上決定產業中什麼是可行的,並找到可行的方式和方法;但商業管理層總是可以決定,出於商業原因應該做多少工作,以及生產出什麼樣的和什麼品質的商品和服務;而商業管理層往往是最終拍板的人,持續地設置生產上限。

隨著專業化的不斷發展,專家們在工業事務中的話語權理應越來越大;但一如既往的是,他們關於生產中要做什麼和怎麼做的結論,仍有待于企業經理依據什麼有利於商業獲益再做定奪。這種商業管理和工業管理間的分裂持續加速地向前行進,因為任何可靠的高效組織和工業流程所需要的專業培訓和經驗,都在不斷變得更為苛刻,這要求具備專業知識和能力的人各司其職,且對於手頭的工作有著未分割的所有權收益和全心全意的關注。

但是,這些擁有技術知識、能力、興趣和經驗的專家,越來越多地以這種方式參與其中——發明家、設計師、化學家、礦物學家、土壤專家、作物專家、生產經理和各式各樣的工程師——繼續成為產業首腦的雇員,也就是為金融首腦工作,而金融首腦們的工作則一直是將工業專家的知識和能力商業化,並將其轉化為自己的利益。

機器人都會最終引發人的身份認同危機,我們人類到底是什麼

要思考製造怎樣的機器人,怎麼給機器人制定行為準則,這最後也會逼迫人類工程師重新思考這個問題:我們人類是什麼?

日本機器人學家、大阪大學教授石黑浩,研究了多年“仿生機器人”之後,石黑浩做出了一系列跟人長得很像的機器人,例如以下這個女孩子,名字叫做 Erica。

“當我 10 歲、11 歲的時候,我的一個基本問題是:什麼是人?什麼是思考、什麼是感覺。我沒有得到正確的答案,但我一直通過開發機器人來尋找答案。”

“如果用機器替換身體,我們將會永遠活著。作為人類,我們的最終目標是成為一個機器人,從而突破時間的限制。”

石黑浩的觀點跟俄羅斯億萬富翁迪米特·伊茲科夫(Dimitry Itskov)類似,他在之前接受採訪時表示:“人的身體是硬體,人腦是軟體。”

“人的身體不能長久保存,但只要把意識提取,移到機器人身上就可以讓人一直活下去。而且這麼做,對環境可能更好——因為機器人不需要消耗食物。”

但這還是不是人類呢?

未來不需要我們?

創辦了昇陽電腦系統(Sun Microsystems)的電腦科學家比爾·喬伊在 17 年前就開始擔心技術失控的問題。在他的眼裡,機器人和基因工程、納米技術,都是潘朵拉魔盒,一旦這些技術快速發展,人類可能會成為瀕危物種。以下是比爾·喬伊在 2000 年發佈的文章《為什麼未來不需要我們》的節選:

我們 21 世紀最厲害的科技——機器人、基因工程和納米科技,正在威脅著人類,讓人類變成瀕危物種。

我還記得《星際迷航》裡的一個角色“柏格人”(Borg),他是個半人半機器人,有很強的暴力傾向。柏格人這種類型的災星,是科幻小說中常常出現的角色,但為什麼我就沒有更早擔心機器人帶來的負面影響?為什麼其他人也像我這樣,不怎麼擔心這種噩夢般的場景成真呢?

一部分原因在於我們對於新事物的態度——我們更傾向於,很快熟悉一件事情,並且毫無誡心地接納它們。我們都習慣了每天都能聽到的科技新進展,卻還沒有人明白到 21 世紀吸引人的技術:機器人、基因工程和納米技術,跟其他技術不一樣,正在成為威脅。具體來說,機器人、經過改造的有機體、納米技術都具有同一個問題:它們能自我複製。一個炸彈只能炸一次,但一個機器人能自我複製成很多個,很快就會失去控制。

在過去 25 年中,我主要工作是電腦網路研究,在網路上,資訊的收發,給失控的複製創造了機會。在電腦網路上的複製讓人心煩,但最糟糕的情況也就是讓網路和電腦癱瘓。而這些新科技帶來的不受控制的複製品,會造成更大危險:損害到物理世界。

這些新技術還帶來了一些承諾:永生的前景,讓庫茲韋爾帶著機器夢想前景;基因工程能很快為大部分疾病提供治療方案,或者治癒方案;納米技術和納米醫療,能治癒更多病人。所有這一切將會極大提高我們的平均壽命及生活品質。然而,對於其中任何一項技術,持續不斷的微小、個別的行為,將會積聚成巨大的力量,還有巨大的危險。

什麼東西讓 20 世紀不一樣?新技術讓產生大規模殺傷性武器(WMD),例如核武器、生化武器、化學武器,成為巨大的威脅。但建造核武器至少需要一段時間,還需要接觸到稀有的、高度保密的資料;研發生化武器和化學武器,也需要開展大規模的活動。

而 21 世紀的技術——基因工程、納米技術和機器人,能激發新的意外和武器濫用情況,所以威力強大。最危險的是,個人或小型組織就能接觸和濫用這些技術,這是歷史上首次。它們不需要巨大的開發能力或稀少的原材料,只要有相關技術知識就能利用它們。

我想這麼說不是誇張:我們正處在創造“極端邪惡”的邊緣,這一邪惡力量的傳播,將會超越國家製造的大規模殺傷性武器,成了極端個人的可怕力量。

我進入電腦行業的時候,沒有任何人告訴我,我可能需要面對這樣的問題。

喜歡這篇文章?去 App 商店搜 好奇心日報,每天看點不一樣的。

也是韓國、日本和美國的問題,世界正在老化(除了非洲),但沒有人明白這點。我們需要機器人。

我不是說技術、機器人變化不重要,但人口變化比技術變化重要得多,因為它的影響來得快得多。這是其一,還有一個資料是“依賴比例”,也就是提供照料和需要照料的人的比例。去年是世界首次,65 歲以上的人口比 5 歲以下新生人口多,本世紀中葉,80 歲以上的人會翻倍,到世紀末,會增長 7 倍,所以說自動駕駛汽車,可能是世界上首批照料長者的工具……什麼時候,有個能安全的給長者洗澡的機器人重要得多。”

瑪律科夫也曾經在著作《與機器人共舞》裡提到過這種照顧老人的機器人的問題,最後也是人和機器人關係的問題:

“但是,這些機器什麼時候才能符合人們對他的期待呢?那些被照顧的人又應該怎麼去接受這些機器呢?這些仍舊是問題。儘管有大量資料表明,隨著語音辨識和語音合成技術的不斷改善,感測器成本的下降,如果機器人專家能研製出更加靈活的機器,我們還是會心懷感激地接受它們……機器人擔任老年護理員、服務工人、司機和士兵,這是一種必然趨勢。但是人類與這些機器人的關係目前還很難預測。魔像一類的傳說已經把樂於服務的奴隸形象編織進了人類的思想和神話,在傳說中,這些奴隸實現了人類提出的每一個願望。”

自動決定人類生死的機器已經被廣泛使用,沒有多少人不安

羅奈爾得·阿金博士在喬治亞理工大學實驗室研究了 20 多年機器人學,他說,重來一次,他可能會想想要不要做這樣的研究,因為自己加速了戰爭自動化速度。以下的發言,選自他 2013 年的演講“怎樣才能不造一台‘終結者’”。

我們已經有很多用於戰爭的機器人,不只是美國,上次我看到的數字是 53-76 個國家正在研發、派遣這樣的機器人,情況已經很普遍了。

機器人已經在地面、空中、海上、海底都有,例如,新的復仇者無人駕駛戰鬥機 Predator C 就是一個很經典的機器。

還有一個韓國的 Comat Robot,我來念一下它的功能:自動檢測,自動安全開火,自動找到海軍工程目標甚至人類目標的能力,然後你還可以選擇用什麼武器平臺……

我工作中得出的結論是,就是自動化致死(Lethal Autonomy)是不可避免的。

為什麼這麼說?因為它存在於此時、此地。每個人對於機器人的定義不一,但要我說,即使是反步兵地雷也算是機器人,因為它們能感知並且啟動爆炸……它們對所有人都有危險性,不能分辨這是一個小孩,還是一個士兵。

還有一些系統,例如愛國者導彈,它是有人類的操作者的,導彈瞄準了之後,操作者有 9 秒鐘去按按鈕關掉系統。只有 9 秒鐘怎麼能判斷這個目標是不是正確的呢?還是說人類被陷害了?他們只是這個殺人鏈條裡的最後一步,是為錯誤判斷負責任的“替罪羊”。

作為機器學家,我們正在讓戰爭變得越來越快,這是我們工作的後果。這也意味著,智慧化、自動化正在被推進得越來越遠,已經到了頂尖的地步,我們讓軍方來給這些機器做決定,無論他是一個“發射不理(Fire-and-Forget)”系統,還是以色列的導彈系統,可以自己通過雷達的信號,找到地上的目標然後打擊,不需要問任何人……這些東西正在改變以及挑戰人類參戰的方式。

但“自動化致死”的定義跟哲學家的不同,哲學家認為自動化是有自由意志的道德載體。但機器人真的應該承擔行為的責任嗎?機器人真知道自己在做什麼?作為機器學家,我們對此的定義不一樣,我們要用機器去指明打擊目標,換句話說,就是扣下扳機。

當 1970 年代,基因工程學第一次能做克隆 DNA 的時候,生物道德委員會呼籲讓他們停止研究,他們明白了這點:天呐,我們的新技術讓我們可以複製人!我們應該後退一步,讓哲學家、公眾、生物工程師、政治家一起聊聊這個話題。

而我們面對“自動化致死”卻沒有這種不安,但我們真的應該談談,去提供這樣的討論的土壤也是社會的作用,而不是等著別人給我們做這件事。但我們現在就是等著,我們把自己的科技和未來委以政府和當局了。

這是不對的,我們科學家應該更有自主意識,我們要跟人們分享我們的觀點。這 20 年,我迷失在發現新知識的喜悅中,抬頭才看明白我自己在做的科技到底是什麼。走出實驗室,去真實的世界吧,重新思考一下要不要這麼做,我希望不要等你們 20 年後才去想。

在我探索的項目當中,我認為應該問這些問題:

我們應該讓士兵變成機器人嗎?

我們應該讓機器人變成士兵嗎?它們能變得更像人嗎?他們能在道德層面超越人類嗎?

機器人跟人應該是什麼關係?關鍵在於“設計師”

這是托斯丹·凡勃倫 100 年前寫的一篇文章,當時還沒有能讓人失業的電腦和人工智慧。但他說,政治力量會轉向工程師等專家崗位,工程師將會成為新經濟的控制者。在機器越來越聰明的時代,工程師的作用就愈發明顯:

起初,在機械工業的早期發展中,尤其是在工業革命直接催生的機械工業新增長當中,工業專家和企業經理之間的分歧並不明顯。

這一階段在新的工業體系走上逐步專業化和複雜化的道路之前,也是在商業規模遠未擴張之前;這樣,即使是當時並未受過技術訓練的商人,仍然可以對全域有著智慧的監督,以及理解他們所投資和從中獲益的機械生產流程的需求。尋常的情況是,工業流程和設備的設計者仍然掌控著財務,同時也管理店面。

但是,早期的發展階段中,分化就開始出現,比如將設計和管理工業流程的人,與設計和管理商業交易和掌控財務的人分開。這亦導致了商業管理和技術專家之間權力的分割。

這成為了技術專家的工作:在技術上決定產業中什麼是可行的,並找到可行的方式和方法;但商業管理層總是可以決定,出於商業原因應該做多少工作,以及生產出什麼樣的和什麼品質的商品和服務;而商業管理層往往是最終拍板的人,持續地設置生產上限。

隨著專業化的不斷發展,專家們在工業事務中的話語權理應越來越大;但一如既往的是,他們關於生產中要做什麼和怎麼做的結論,仍有待于企業經理依據什麼有利於商業獲益再做定奪。這種商業管理和工業管理間的分裂持續加速地向前行進,因為任何可靠的高效組織和工業流程所需要的專業培訓和經驗,都在不斷變得更為苛刻,這要求具備專業知識和能力的人各司其職,且對於手頭的工作有著未分割的所有權收益和全心全意的關注。

但是,這些擁有技術知識、能力、興趣和經驗的專家,越來越多地以這種方式參與其中——發明家、設計師、化學家、礦物學家、土壤專家、作物專家、生產經理和各式各樣的工程師——繼續成為產業首腦的雇員,也就是為金融首腦工作,而金融首腦們的工作則一直是將工業專家的知識和能力商業化,並將其轉化為自己的利益。

機器人都會最終引發人的身份認同危機,我們人類到底是什麼

要思考製造怎樣的機器人,怎麼給機器人制定行為準則,這最後也會逼迫人類工程師重新思考這個問題:我們人類是什麼?

日本機器人學家、大阪大學教授石黑浩,研究了多年“仿生機器人”之後,石黑浩做出了一系列跟人長得很像的機器人,例如以下這個女孩子,名字叫做 Erica。

“當我 10 歲、11 歲的時候,我的一個基本問題是:什麼是人?什麼是思考、什麼是感覺。我沒有得到正確的答案,但我一直通過開發機器人來尋找答案。”

“如果用機器替換身體,我們將會永遠活著。作為人類,我們的最終目標是成為一個機器人,從而突破時間的限制。”

石黑浩的觀點跟俄羅斯億萬富翁迪米特·伊茲科夫(Dimitry Itskov)類似,他在之前接受採訪時表示:“人的身體是硬體,人腦是軟體。”

“人的身體不能長久保存,但只要把意識提取,移到機器人身上就可以讓人一直活下去。而且這麼做,對環境可能更好——因為機器人不需要消耗食物。”

但這還是不是人類呢?

未來不需要我們?

創辦了昇陽電腦系統(Sun Microsystems)的電腦科學家比爾·喬伊在 17 年前就開始擔心技術失控的問題。在他的眼裡,機器人和基因工程、納米技術,都是潘朵拉魔盒,一旦這些技術快速發展,人類可能會成為瀕危物種。以下是比爾·喬伊在 2000 年發佈的文章《為什麼未來不需要我們》的節選:

我們 21 世紀最厲害的科技——機器人、基因工程和納米科技,正在威脅著人類,讓人類變成瀕危物種。

我還記得《星際迷航》裡的一個角色“柏格人”(Borg),他是個半人半機器人,有很強的暴力傾向。柏格人這種類型的災星,是科幻小說中常常出現的角色,但為什麼我就沒有更早擔心機器人帶來的負面影響?為什麼其他人也像我這樣,不怎麼擔心這種噩夢般的場景成真呢?

一部分原因在於我們對於新事物的態度——我們更傾向於,很快熟悉一件事情,並且毫無誡心地接納它們。我們都習慣了每天都能聽到的科技新進展,卻還沒有人明白到 21 世紀吸引人的技術:機器人、基因工程和納米技術,跟其他技術不一樣,正在成為威脅。具體來說,機器人、經過改造的有機體、納米技術都具有同一個問題:它們能自我複製。一個炸彈只能炸一次,但一個機器人能自我複製成很多個,很快就會失去控制。

在過去 25 年中,我主要工作是電腦網路研究,在網路上,資訊的收發,給失控的複製創造了機會。在電腦網路上的複製讓人心煩,但最糟糕的情況也就是讓網路和電腦癱瘓。而這些新科技帶來的不受控制的複製品,會造成更大危險:損害到物理世界。

這些新技術還帶來了一些承諾:永生的前景,讓庫茲韋爾帶著機器夢想前景;基因工程能很快為大部分疾病提供治療方案,或者治癒方案;納米技術和納米醫療,能治癒更多病人。所有這一切將會極大提高我們的平均壽命及生活品質。然而,對於其中任何一項技術,持續不斷的微小、個別的行為,將會積聚成巨大的力量,還有巨大的危險。

什麼東西讓 20 世紀不一樣?新技術讓產生大規模殺傷性武器(WMD),例如核武器、生化武器、化學武器,成為巨大的威脅。但建造核武器至少需要一段時間,還需要接觸到稀有的、高度保密的資料;研發生化武器和化學武器,也需要開展大規模的活動。

而 21 世紀的技術——基因工程、納米技術和機器人,能激發新的意外和武器濫用情況,所以威力強大。最危險的是,個人或小型組織就能接觸和濫用這些技術,這是歷史上首次。它們不需要巨大的開發能力或稀少的原材料,只要有相關技術知識就能利用它們。

我想這麼說不是誇張:我們正處在創造“極端邪惡”的邊緣,這一邪惡力量的傳播,將會超越國家製造的大規模殺傷性武器,成了極端個人的可怕力量。

我進入電腦行業的時候,沒有任何人告訴我,我可能需要面對這樣的問題。

喜歡這篇文章?去 App 商店搜 好奇心日報,每天看點不一樣的。

Next Article
喜欢就按个赞吧!!!
点击关闭提示