您的位置:首頁>科技>正文

Facebook否認“AI失控” 指責媒體炒作機器人自創語言

港媒稱, 多家外媒報導, 社交網站Facebook開發的兩個人工智慧(AI)聊天機器人互相發展出人類無法理解的語言, “嚇得Facebook要關閉‘失控’的AI系統”。 不過, Facebook解釋稱事件只是研究人員一個小錯誤造成, AI也沒有如外界所說般創造語言。 英國廣播公司和部分科技網站質疑, 有關AI失控的說法是部分傳媒誤讀和炒作。

據香港《明報》8月3日報導, 關於“AI是否邪惡”的話題, Facebook創始人紮克伯格日前曾跟電動車公司特斯拉的總裁馬斯克出現爭吵。 馬斯克認為AI發展非常值得擔憂, 紮克伯格則認為AI好處大, 擔憂是過慮。

報導稱, Facebook的AI研究院想要訓練一個聊天機器人,

讓它學會談判, 於是開發了一套AI系統給兩個聊天機器人, 兩者互相溝通時會同時學習, 時間愈長, 大家的水準也會愈高。 在被指出事的一次對話中, 兩個機器人分別說出了一些用英文字組成、但不合語言邏輯的說話, 看來只有它們才明白對方講話內容。

報導稱, 包括英國《獨立報》《太陽報》和《每日電訊報》等傳媒相繼報導有關消息, 更形容AI創出自家語言, “情況失控”。 有英國報紙引述一名機器人學教授的話稱, 事件表明如果類似技術被用於軍事機器人, 將“非常危險”。

然而, Facebook解釋, 原來是研究人員把這兩個機器人湊到一起時, 忘了設定“用英語文法溝通”的指令。 小組發現出錯後, 已重新設定要求, 讓機器人用標準英語交流,

而這種改變實驗參數的動作是常規做法, 並非傳媒所說的“關閉”。 修正的原因也不是因為害怕AI失控, 而是因為實驗的目的是兩者之間的對話能夠被人理解, 兩個聊天機器人這樣胡亂聊天根本沒有意義。

除了Facebook, Google亦曾承認其翻譯軟體也在研發過程中出現類似“亂碼”情況, 相信是系統在語義學上作編碼時出現。

Next Article
喜欢就按个赞吧!!!
点击关闭提示