您的位置:首頁>科技>正文

2017年回顧:10個人工智慧失敗的案例

今年, 人工智慧程式AlphaGo和Libratus分別擊敗了世界上最優秀的圍棋選手和撲克玩家。 儘管這些里程碑表明了人工智慧在近年來的發展程度,

但許多人仍對新興技術的全面成熟持懷疑態度——尤其是在過去12個月裡, 人工智慧出現了一些問題。

在Synced, 我們是智慧型機器的愛好者, 但我們也意識到一些新技術很難有效地執行他們的任務, 經常做不到人類所能達到的標準。 以下是我們對2017年的人工智慧失敗案例進行的篩選:

Face ID 被一個面具所欺騙

面部識別技術, 即解鎖新iPhone X的面部識別技術, 被認為是有史以來最安全的人工智慧啟動方法, 蘋果稱其被愚弄的幾率為百萬分之一。 但隨後越南公司BKAV用3d列印的塑膠、矽膠、化妝品和剪紙製作了150美元的面具, 將其打裂。 Bkav只是掃描了一個測試物件的臉, 使用3D印表機來生成面部模型, 並粘貼了一張紙割的眼睛和嘴巴和一個矽膠鼻子。 這一bug在業內引起了風浪, 加大了消費者設備隱私方面的洩露的風險, 並更普遍地威脅了人工智慧安全。

鄰居們在“亞馬遜Echo音箱”問題上報警

流行的亞馬遜Echo被認為是“聰明”的智慧音箱之一。 但沒有什麼是完美的。 一個德國人的Echo音箱在他不在家的時候被意外地啟動了,

在午夜之後開始播放音樂, 吵醒了鄰居。 他們給員警打了電話, 員警不得不從前門破門而去, 把音箱關掉。 員警也把門鎖上了, 但是當那個人回來時, 他發現鑰匙已經不工作了, 結果回不了自己加了。

Facebook chatbot關閉

今年7月, 有報導稱,

兩名Facebook聊天機器人在無法辨認的語言中相互交流後被關閉。 一種新的秘密超智慧語言充斥著討論板, 直到Facebook解釋說神秘的交流僅僅是由於語法編碼的疏忽造成的。

拉斯維加斯的自動駕駛巴士在第一天就墜毀了

今年11月, 一輛自動駕駛巴士在拉斯維加斯舉行了首次公開亮相。 然而, 就在兩小時內, 這輛巴士與一輛運貨卡車相撞。 在技術上, 巴士並沒有對事故負責, 而卡車司機也被警方引了出來, 而車上的乘客抱怨說, 當卡車慢慢靠近時, 自動駕駛反應過慢, 沒有辦法導致他們可以不受傷害。

穀歌Allo用頭巾的表情來回應一個持槍的表情

CNN的一名工作人員收到了一個表情符號, 一個戴著頭巾的人發向穀歌Allo, 結果回應一個手槍的表情符號。 尷尬的谷歌向公眾保證, 它已經解決了這個問題, 並發表了道歉聲明。

滙豐銀行的語音辨識被雙胞胎兄弟愚弄

滙豐的語音辨識ID是一個人工智慧的安全系統, 允許使用者使用語音指令訪問他們的帳戶。 儘管該公司聲稱其安全性和指紋識別符一樣安全, 但BBC記者的孿生兄弟卻通過模仿他的聲音進入了他的帳戶。實驗用了7次登陸成功。滙豐銀行的直接補救措施是三次失敗嘗試,進行帳戶鎖定。

穀歌AI把來福槍識別成直升機

通過略微調整步槍的照片,麻省理工學院的研究小組用穀歌雲視覺API將它們識別為直升機。這一伎倆,也就是反例,導致電腦通過引入無法探測到人眼的修改來對圖像進行分類。在過去,只有當駭客瞭解目的電腦系統的底層機制時,對抗的例子才會起作用。麻省理工學院的團隊在沒有獲得這些系統資訊的情況下,通過觸發錯誤分類,向前邁出了一步。

路牌“愚弄”自動駕駛車

研究人員發現,通過使用油漆或膠帶來改變道路標示,他們可以欺騙自動駕駛汽車,把這些標識錯誤地分類。一種用“愛”和“恨”來修飾的停車標誌,愚弄了自動駕駛汽車的機器學習系統,把它誤列為“限速45”的標誌,屢試不爽。

AI很難將顏色正確匹配名稱

機器學習研究人員Janelle Shan訓練了一個神經網路來生成新的油漆顏色以及可以“匹配”每種顏色的名稱。 顏色可能是鮮明的,但名字是奇怪的。 即使在用顏色名稱資料進行少量訓練之後,該模型仍然將天藍色標記為“灰色恥骨”,將深綠色標記為“Stoomy Brown”。

小心你問亞馬遜Alexa的所有文體

亞馬遜的Alexa虛擬助理可以讓網上購物變得更容易。也許太容易了?今年1月,聖地牙哥新聞頻道CW6報導稱,一名6歲的小女孩僅僅通過問Alexa就買了170美元的房子。這還不是全部。當電視主持人重複女孩的話時,她說:“我愛這個小女孩說,‘亞曆克莎給我訂了一個娃娃屋’”,一些觀眾家裡的Alexa裝置再次被觸發,以訂購玩偶屋。

關注人工智慧領域

DATADUO

致力於

做中國最好的人工智慧技術培訓

做中國最專業的人工智慧產品推廣平臺

做中國領先的AI早期VC服務

共 享 A I 未 來

但BBC記者的孿生兄弟卻通過模仿他的聲音進入了他的帳戶。實驗用了7次登陸成功。滙豐銀行的直接補救措施是三次失敗嘗試,進行帳戶鎖定。

穀歌AI把來福槍識別成直升機

通過略微調整步槍的照片,麻省理工學院的研究小組用穀歌雲視覺API將它們識別為直升機。這一伎倆,也就是反例,導致電腦通過引入無法探測到人眼的修改來對圖像進行分類。在過去,只有當駭客瞭解目的電腦系統的底層機制時,對抗的例子才會起作用。麻省理工學院的團隊在沒有獲得這些系統資訊的情況下,通過觸發錯誤分類,向前邁出了一步。

路牌“愚弄”自動駕駛車

研究人員發現,通過使用油漆或膠帶來改變道路標示,他們可以欺騙自動駕駛汽車,把這些標識錯誤地分類。一種用“愛”和“恨”來修飾的停車標誌,愚弄了自動駕駛汽車的機器學習系統,把它誤列為“限速45”的標誌,屢試不爽。

AI很難將顏色正確匹配名稱

機器學習研究人員Janelle Shan訓練了一個神經網路來生成新的油漆顏色以及可以“匹配”每種顏色的名稱。 顏色可能是鮮明的,但名字是奇怪的。 即使在用顏色名稱資料進行少量訓練之後,該模型仍然將天藍色標記為“灰色恥骨”,將深綠色標記為“Stoomy Brown”。

小心你問亞馬遜Alexa的所有文體

亞馬遜的Alexa虛擬助理可以讓網上購物變得更容易。也許太容易了?今年1月,聖地牙哥新聞頻道CW6報導稱,一名6歲的小女孩僅僅通過問Alexa就買了170美元的房子。這還不是全部。當電視主持人重複女孩的話時,她說:“我愛這個小女孩說,‘亞曆克莎給我訂了一個娃娃屋’”,一些觀眾家裡的Alexa裝置再次被觸發,以訂購玩偶屋。

關注人工智慧領域

DATADUO

致力於

做中國最好的人工智慧技術培訓

做中國最專業的人工智慧產品推廣平臺

做中國領先的AI早期VC服務

共 享 A I 未 來

Next Article
喜欢就按个赞吧!!!
点击关闭提示