武器智慧化早已付諸應用。 最近韓國對於人工智慧武器的研究, 卻遭到全球近乎一半頂尖人工智慧專家的聯名反對。
韓國科學技術院披露了一個研究方向,
這種場景是不是很熟悉?沒錯, 在美國的科幻電影裡常常見到。 在這些電影裡, 具有深度學習思考能的機器人或克隆人的行為與命運引人深思。 如果這些智慧機器人意識到自己只是人類的產品, 反過來控制人類會怎樣?所以, 這就引出了人工智慧的技術倫理問題。 根據主流觀點, 人工智慧應該用在一定限度範圍內, 絕不可取代人類, 更不能被用於作惡。
那麼, 如今的無人機、無人駕駛等, 為什麼就不被反對呢?實際上, 如今的無人機還不具備獨立自主思考和深度學習能力, 其任務實現靠的是預先設定程式以及人工遙控。 無人戰機識別目標和開火, 由操作員完成。
韓國科學技術院的研究方向, 邁出了一大步, 即將越過雷池。 公開信發起人、南威爾士大學教授托比·沃爾什表示:“過去想要做惡, 需要聽從你調遣的軍隊和人群,
原因也不難理解。 能夠深度學習的人工智慧, 其思維過程無法為人類所理解和掌控, 它不是動物本能, 也不是人類的思維。 所以, 儘管是人類製造了它們,
眼下, 公開信獲得了50位人工智慧學者的支持, 其中包括中國人工智慧學會機器學習專業委員會主任周志華。 公開信所要達到的目標是獲得保證“該中心將不會研發完全自主、不需要人類控制的‘機器人殺手’”。