最近, 霍金再次, 就人工智慧表達了擔憂, 認為人類文明形成以來, 一直受到有生存能在優勢群體的侵略威脅。 而未來的新科技(人工智慧)進一步發展, 便具有這種優勢。 “它們可能會通過核戰爭或生物戰爭摧毀我們。 因此人類需要利用邏輯和理性去控制未來可能出現的威脅。 ”
類似的警告, 像比爾·蓋茨、伊隆·馬斯克等人都表達過。 很多編劇、導演也已經在銀幕上告訴了我們很多次。 機器人在某個時刻的覺醒, 將會消滅人類, 取代人類。
機器人要消滅人類, 為什麼呢?我們該對此感到焦慮, 甚至就此停止人工智慧的發展嗎?答案當然是否定的。 人工智慧要摧毀人類, 首先需要存在這種必須, 也就是說, 跟人類之間存在競爭關係, 要像人類一樣, 類似的意識、思想, 彼此之間無法相容, 否則, 為什麼他們一定要與人類為敵, 為什麼一定要消滅人類呢?
換句話說,
當然, 除非機器人可以發展出自己的一套智慧方式, 有自己的意識產生方式, 否則, 人工智慧摧毀人類, 一定不是因為人工智慧出了什麼錯, 而是人類自己出了什麼錯。
人類才是愛犯錯的主相較於程式、演算法, 人類自身更加不可靠。 人類才是會不斷犯錯的主。
就說人工智慧的發展來說, 現在與其擔憂未來智慧型機器人是否會消滅人類, 倒不如先關注一下, 一旦人工智慧技術迅速普及、自動化、機器革命到來,
現在人工智慧消滅人類的話題炒得這麼火, 更像是在轉移話題注意力, 讓我們忽視了這些更應該關注的問題。
人工智慧, 無論何種形態, 終歸只是一種工作、一種手段, 關鍵在於人類如何去使用。
比如無人駕駛汽車, 中間人與機器“共存”的過渡階段, 人類能否適應這樣的交通;比如人工智慧可能涉及到的道德倫理問題, 究竟怎樣設計, 才能更適合人類社會使用?
對人工智慧的害怕, 與其說是對技術的害怕, 更準確來說, 是它帶來的改變的恐懼。 這種恐懼情有可原, 但不應該被過分誇大了。
我們不該恐懼人工智慧, 而應該恐懼的是人類自身, 究竟能否使用好這些技術。 我們應該擔憂的是, 在這些技術來臨時, 是否有足夠的智慧, 來改變我們的制度,來適應這些衝擊與變化。
人工智慧一點也不可怕,可怕的是人類自己,這個愛犯錯的主。
來改變我們的制度,來適應這些衝擊與變化。人工智慧一點也不可怕,可怕的是人類自己,這個愛犯錯的主。