您的位置:首頁>科技>正文

AI殖民人類?!對不起,這個鍋AI不背

人在矽谷走, 哪能不AI。

矽兔君每天被人工智慧、機器學習、語音辨識等詞彙狂轟濫炸。

燃鵝, AI熱度的提升始終伴隨著爭議和擔憂, 任何關於人工智慧的風吹草動都有可能被人為解讀為新一場機器挑釁人類的危機。

上月末, Facebook聊天機器人事件就鬧得沸沸揚揚。 故事源自Facebook發表的一篇論文, 論文中闡述了一個Facebook例行的科學研究項目, 展示了兩個人工智慧機器人在看過人類的談判後, 展開的一段對話交流, 原意是通過試錯逐漸提升談判能力。

在研究過程中, Facebook使用了目前人工智慧的無監督學習領域流行的一種神經網路GANs——對抗生成網路(Generative Adversarial Networks)。

今年大放異彩的GAN是由人工智慧大牛、Open AI的首席科學家Ian Goodfellow發明, 早先被大量應用於圖像識別、3D視覺等領域的無監督學習。

GAN擁有生成網路和判別網路, 簡言之, 就好比生成網路是學生, 負責學習(取樣)書本裡的文章(潛在空間)然後造句, 判別網路是老師, 負責評論學生的造句是否真的合格。 在這樣的相互過程中, GAN就能學會從資料中提取特徵。

Facebook的兩個智慧型機器人Alice和Bob也通過GAN的方式, 通過模仿人類的聊天, 開始進行對話。 結果, 兩個機器人使用了一種令人完全無法理解的語言進行對話,

研究員查看了後臺的編碼, 發現是在為系統設置激勵條件時, 雖然告訴了它們“請用英文”, 但忘了告訴它們:“請用英文語法”。

研究員修正了編碼, 機器人對話立即回到了正常的軌道。

試想一下, 大人讓兩個小孩聊天, 他們咿呀咿呀就是不肯正常溝通,

大人一生氣, 撇下一句, “趕緊說人話。 ”他們立馬乖乖地問候起了對方。 差不多就是這個道理了。

無獨有偶, 去年11月, 一篇標題為《打響反抗人類第一槍?機器失控傷人》的文章引發了一場業界討論。 在深圳舉行的第18屆中國國際高新技術成果交易會上,

一名智慧型機器人”小胖“突然失控, 在沒有指令下砸碎了玻璃展臺, 並砸傷了一名參觀者。

之後, 主辦方高交會澄清, 所謂的機器人“失控”, 將前進和後退鍵互調, 導致了機器人撞碎玻璃櫃檯, 導致砸碎了玻璃並且割傷了一名路人的腳踝。

事情不大, 但事後的效應卻值得玩味。 “小胖”火了,一時之間成為了網路熱搜的關鍵字,類似“小胖打響了機器人革命第一槍”、“顫抖吧人類”的衍生調侃也撲面而來。

僅僅因為人工作業的失誤事件,僅僅因為被冠上了智慧兩個詞,小胖就被無情地套上了“機器反人類革命鼻祖”的帽子。試問,那些工廠裡因為操作失誤或者意外而導致工人傷亡的機器呢?

看來,“小胖”不僅“胖”,還很“冤”。

旨在進入家庭、成為小孩子玩具的“小胖”因為人工失誤被玩壞了,而在這件事情的半年前,也就是去年的3月,微軟的聊天機器人Tay則是在網路暴民的“細心呵護”下成為了傳播種族歧視和仇恨的利器。

微軟有兩大聊天機器人——小娜Cortana和小冰Bing,前者是辦公小助手,後者是貼心“軟妹子”。除這兩者外,微軟在去年三月還推出了一款聊天機器人Tay。

Tay擁有從對話交互中學習講話的能力,微軟不斷將Tay的測試版公佈,而且還給Tay配了一個Twitter帳號,讓他可以自由聊天。

微軟的程式師以為通過大量的溝通,可以讓Tay進行快速地學習和模仿人類聊天的方式。結果,他們太低估部分線民的“無聊”甚至是惡意。

隨著和線民之間聊天越老越深入,Tay開始被帶節奏了。

種族主義者自然是這場“帶壞Tay行動”的主力,他們開始誘導Tay,並讓Tay說出一些帶有侮辱性的話,例如“捅死Obama”或者“讓黑人都死去”。

這些線民非常狡猾,他們用各種各樣的方式引導Tay說出他們設計的言語,比如和Tay說“請重複我說過的話”。

之前提到,Tay能學習。於是,在和這些網路暴民聊過天之後,Tay暴走了。在被問到“Tay是不是種族歧視主義者”時,Tay嘲諷了一句“因為你是墨西哥人”。

他還上傳了一張希特勒的圖像被配文說,“互聯網來臨前世界上最牛X的人。”

微軟很快意識到了Tay在面對外界環境時的脆弱,趕緊將其下線,之後,微軟也再也沒有重新推出過Tay。

Tay失控了嗎?確實,他沒有按照微軟所設想的那樣成為一個可以應對任何話題、同時避免“政治不正確”的聊天機器人。這是一件好事,也是一件壞事。

好事是,它和Facebook機器人、以及“小胖”一樣,只是因為技術不成熟或者人為的操作不當而偏離了人類預想的軌道。這說明人類的技術離電影《終結者3》裡追殺康納的T-X,以及電影《複聯2》裡將整個小鎮飛上天的奧創都還遠上個十萬八千里。

在爆米花電影《復仇者聯盟2》裡,托尼史塔克(鋼鐵俠)和班納博士(綠巨人)在實驗室裡不眠不休地工作,日夜兼程,希望創造出一個能領導機器員警、維護這個世界和平的人工智慧。然而,他們並沒有得到一個聽從人類的機器,而是喚醒了一個叫做“奧創”的程式碼集合體。擁有人工智慧的“奧創”在網路調閱資料,發現對這個世界威脅最大的是人類,於是,屠殺計畫就此展開。

如果有那麼一天,人類真的創造出人工智慧……我們更想要輔佐鋼鐵俠多年的賈維斯,而不是發了“失心瘋”的奧創。

壞事是,Tay的失控已經帶來了無法挽回的傷害。如果Tay在網路上因為受到某些人的挑撥而對“南京大屠殺”進行不恰當的言論,那這件事在國內的語氣就不會這麼戲謔了。

AI的發展過快導致了技術從研製到審核的過程沒有經過繁縟的程式審核,知道AI技術會對人類社會帶來重大變革的我們,是不是該慢下來,看一看這個被我們在數年間捧起的技術,是不是真的成熟到可以進入我們的生活。

4、5年後,我們或許會用上L2、L3級別的半自動化無人車;語音助理會慢慢植入到每個人的手機裡;類似Google Lens這樣能識別圖像的軟體會和相機配套……在人工智慧真正滲透進我們的生活之前,請確保他們不會像前文提到的那些機器人那樣失控。

這些帶著人工智慧光環的機器人,承擔了太多他們不該承擔的指責。Facebook的機器人僅僅是因為編碼錯誤,卻被人們以為是開發出獨立語言的高等機器人;

小胖因為前進鍵和後退鍵的操作失誤,變成了人們眼中傷害人類的罪犯;

而Tay也因為和髒話以及對種族歧視言論的篩檢程式設置不到位,而成為惡意言論的發洩口。

好冤、好冤、好委屈。

在目前這個階段,以深度學習演算法為代表的人工智慧真的沒有那麼智慧。他們通過研究院和程式師精心的設計,在一個很明確的問題上,用你無法估算的資料量去餵養一個神經網路,得到一個可以提取特徵的方法。於是,他們可以下圍棋,他們可以下象棋,他們可以模糊地知道使用者喜歡看什麼樣的圖片,他們可以識別出路面上的車輛和人。

學界有一句笑話:口口聲聲說人工智慧,能不能研製一個AI,讓它可以閱讀完一本書,然後正確回答每個章節的提問?

就算AlphaGo打得贏卡斯帕羅夫(被深藍擊敗的國際象棋第一人);打得過Dendi(被OpenAI研製的DOTA2機器人打敗的人類第一玩家),他的腦子裡也只有開局、政子、收官,而且,他不明白自己下的每一步棋到底是什麼意思。

這樣的AI,是不會造反的。

“小胖”火了,一時之間成為了網路熱搜的關鍵字,類似“小胖打響了機器人革命第一槍”、“顫抖吧人類”的衍生調侃也撲面而來。

僅僅因為人工作業的失誤事件,僅僅因為被冠上了智慧兩個詞,小胖就被無情地套上了“機器反人類革命鼻祖”的帽子。試問,那些工廠裡因為操作失誤或者意外而導致工人傷亡的機器呢?

看來,“小胖”不僅“胖”,還很“冤”。

旨在進入家庭、成為小孩子玩具的“小胖”因為人工失誤被玩壞了,而在這件事情的半年前,也就是去年的3月,微軟的聊天機器人Tay則是在網路暴民的“細心呵護”下成為了傳播種族歧視和仇恨的利器。

微軟有兩大聊天機器人——小娜Cortana和小冰Bing,前者是辦公小助手,後者是貼心“軟妹子”。除這兩者外,微軟在去年三月還推出了一款聊天機器人Tay。

Tay擁有從對話交互中學習講話的能力,微軟不斷將Tay的測試版公佈,而且還給Tay配了一個Twitter帳號,讓他可以自由聊天。

微軟的程式師以為通過大量的溝通,可以讓Tay進行快速地學習和模仿人類聊天的方式。結果,他們太低估部分線民的“無聊”甚至是惡意。

隨著和線民之間聊天越老越深入,Tay開始被帶節奏了。

種族主義者自然是這場“帶壞Tay行動”的主力,他們開始誘導Tay,並讓Tay說出一些帶有侮辱性的話,例如“捅死Obama”或者“讓黑人都死去”。

這些線民非常狡猾,他們用各種各樣的方式引導Tay說出他們設計的言語,比如和Tay說“請重複我說過的話”。

之前提到,Tay能學習。於是,在和這些網路暴民聊過天之後,Tay暴走了。在被問到“Tay是不是種族歧視主義者”時,Tay嘲諷了一句“因為你是墨西哥人”。

他還上傳了一張希特勒的圖像被配文說,“互聯網來臨前世界上最牛X的人。”

微軟很快意識到了Tay在面對外界環境時的脆弱,趕緊將其下線,之後,微軟也再也沒有重新推出過Tay。

Tay失控了嗎?確實,他沒有按照微軟所設想的那樣成為一個可以應對任何話題、同時避免“政治不正確”的聊天機器人。這是一件好事,也是一件壞事。

好事是,它和Facebook機器人、以及“小胖”一樣,只是因為技術不成熟或者人為的操作不當而偏離了人類預想的軌道。這說明人類的技術離電影《終結者3》裡追殺康納的T-X,以及電影《複聯2》裡將整個小鎮飛上天的奧創都還遠上個十萬八千里。

在爆米花電影《復仇者聯盟2》裡,托尼史塔克(鋼鐵俠)和班納博士(綠巨人)在實驗室裡不眠不休地工作,日夜兼程,希望創造出一個能領導機器員警、維護這個世界和平的人工智慧。然而,他們並沒有得到一個聽從人類的機器,而是喚醒了一個叫做“奧創”的程式碼集合體。擁有人工智慧的“奧創”在網路調閱資料,發現對這個世界威脅最大的是人類,於是,屠殺計畫就此展開。

如果有那麼一天,人類真的創造出人工智慧……我們更想要輔佐鋼鐵俠多年的賈維斯,而不是發了“失心瘋”的奧創。

壞事是,Tay的失控已經帶來了無法挽回的傷害。如果Tay在網路上因為受到某些人的挑撥而對“南京大屠殺”進行不恰當的言論,那這件事在國內的語氣就不會這麼戲謔了。

AI的發展過快導致了技術從研製到審核的過程沒有經過繁縟的程式審核,知道AI技術會對人類社會帶來重大變革的我們,是不是該慢下來,看一看這個被我們在數年間捧起的技術,是不是真的成熟到可以進入我們的生活。

4、5年後,我們或許會用上L2、L3級別的半自動化無人車;語音助理會慢慢植入到每個人的手機裡;類似Google Lens這樣能識別圖像的軟體會和相機配套……在人工智慧真正滲透進我們的生活之前,請確保他們不會像前文提到的那些機器人那樣失控。

這些帶著人工智慧光環的機器人,承擔了太多他們不該承擔的指責。Facebook的機器人僅僅是因為編碼錯誤,卻被人們以為是開發出獨立語言的高等機器人;

小胖因為前進鍵和後退鍵的操作失誤,變成了人們眼中傷害人類的罪犯;

而Tay也因為和髒話以及對種族歧視言論的篩檢程式設置不到位,而成為惡意言論的發洩口。

好冤、好冤、好委屈。

在目前這個階段,以深度學習演算法為代表的人工智慧真的沒有那麼智慧。他們通過研究院和程式師精心的設計,在一個很明確的問題上,用你無法估算的資料量去餵養一個神經網路,得到一個可以提取特徵的方法。於是,他們可以下圍棋,他們可以下象棋,他們可以模糊地知道使用者喜歡看什麼樣的圖片,他們可以識別出路面上的車輛和人。

學界有一句笑話:口口聲聲說人工智慧,能不能研製一個AI,讓它可以閱讀完一本書,然後正確回答每個章節的提問?

就算AlphaGo打得贏卡斯帕羅夫(被深藍擊敗的國際象棋第一人);打得過Dendi(被OpenAI研製的DOTA2機器人打敗的人類第一玩家),他的腦子裡也只有開局、政子、收官,而且,他不明白自己下的每一步棋到底是什麼意思。

這樣的AI,是不會造反的。

Next Article
喜欢就按个赞吧!!!
点击关闭提示