華文網

警惕:超能機器人將滅絕人類

機器人是人類一手發明、製造,為人類服務的,它怎麼會使人類滅絕呢?這種說法是不是有點危言聳聽、本末倒置呢?不是,因為這一觀點出自(美國)矽谷一家著名電腦公司的聯合創辦人、升陽微系統(Sun Microsystems)公司首席科學家比爾•喬伊(Bill Joy)之口。

喬伊在《連線》雜誌上發表過一篇具有極大影響的文章,標題是《為何未來不需要人類》,他稱人類發明出的先進電腦在未來並不對人類有利,一個由機器人代替人類工作的時代不會成為一個烏托邦,反而可能成為一場大災難。比爾•喬伊寫道∶“我盡一生的力量編寫機器人軟體程式系統,然而我個人認為未來並不會如人類想像得那麼美妙。

我們努力使電腦速度變得更快,然而這也許不會成為我們的勝利,而是我們的墓誌銘。”

喬伊認為:科技工作者重新考慮科技發展力求革新所帶來的道德問題。

他說:“我們邁入這個新世紀,卻絲毫沒有策劃、控制和刹車。確保控制的最後機會——故障安全的關頭——已越來越逼近。

”以他具有超凡成就的身份,撰文疾呼人們重視高科技的威脅。不由得令人忐忑不安。

他是電腦研究的先驅,奠定UNIX作業系統初版的基礎,也是Java語言等軟體技術的推動者,並擔任美國總統未來資訊技術委員會的聯合主席。

他的三大憂懼的焦點,是自動機器學、基因學,以及納米技術。

自動機器學:在未來30年內,“思考”電腦的發展,將使電腦比目前的強大100萬倍。

喬伊預見這將為能夠自我複製的智慧“機器族”創造條件。

基因學:操縱生命基本結構的科學突破,雖製造了抗蟲農作物,也可能埋下消滅生物的人為新災難之禍因。

納米技術:這種製造大小若原子的技術,將使微細的精靈機器很快面世。

這三方面的發展跟人類早期發明原子彈等危險產品不同的特點,是它們自我複製的能力將能產生連鎖反應,像電腦病毒在電腦世界蔓延的方式,將席捲整個物質世界。

喬伊指出:“我們處於終極災禍瀕臨爆發邊緣的說法,這絕非危言聳聽。”