FACEBOOK的倆機器人“自創了一套人類不能理解的語言”這條爆炸新聞你已經看到了吧:)
你是不是也覺得“這事怎麼聽著那麼科幻, 那麼懸疑, 像電影《機械公敵》(I, Robot)的情節似的”呢?
你有沒有注意到他們在訓練這倆機器人做什麼呢?
他們在訓練這倆機器人談判!
據稱:
Facebook 人工智慧研究實驗室(FAIR)為了讓聊天機器人學會談判技巧,
讓兩名機器人各擁有相同數量的 3 種物品(書、帽子、球),
但每種物品對兩個機器人的價值都不同,
在不能說出價值的情況下,
機器人必須透過討價還價來達到自己可得到的最高價值。
天呐!
看到這裡,
在英美法學界有一個著名論點:
而這一切, 即將要由人工智慧(AI)來做了嗎?
其他大的科技公司也基本上都在做人工智慧研究。
我們人類還能做什麼?
當然,作為人工智慧的非悲觀主義者,我不認為機器可以完全取代人的工作。
因為,至少目前,機器人能做的,還只是在完全閉合的規則體系內,例如,下棋。
例如,擺魔方。
而法律和談判這樣開放式的、動態的規則體系裡,人工智慧的發揮空間畢竟是有限的。
但我們仍不可掉以輕心。
我們還是需要提升自己的能力,以便與機器人不在同一層次上競爭。
所以說,可怕的不是機器人會談判。
可怕的是機器人已經開始學習談判了,而你作為法律人,卻還根本沒有開始瞭解法律談判的技能!
我們人類還能做什麼?
當然,作為人工智慧的非悲觀主義者,我不認為機器可以完全取代人的工作。
因為,至少目前,機器人能做的,還只是在完全閉合的規則體系內,例如,下棋。
例如,擺魔方。
而法律和談判這樣開放式的、動態的規則體系裡,人工智慧的發揮空間畢竟是有限的。
但我們仍不可掉以輕心。
我們還是需要提升自己的能力,以便與機器人不在同一層次上競爭。
所以說,可怕的不是機器人會談判。
可怕的是機器人已經開始學習談判了,而你作為法律人,卻還根本沒有開始瞭解法律談判的技能!