您的位置:首頁>汽車>正文

人工智慧也有負能量,我們得提前做好準備

我們在一片對18歲照片的花樣讚美中, 迎來了又一個新年。

按說新年應該是開心的時候, 但是剛剛跨年結束, 抬頭一看居然要上班了…不由得悲從心來…所以今天我們打算說點不那麼開心的事。

最近幾天, 各種對2018年的科技預測層出不窮, 其中對AI的暢想占了大頭, 內容差不多是一片喜慶祥和。

但事有兩來, 當我們開始從AI中收穫價值的時候, 技術升級後帶來的潛在風險也在升溫。

這就像汽車當然好過牛車, 但汽車也會帶來各種各樣的交通事故。 我們當然不能因此禁止汽車上路, 但是也不能對交通問題視而不見。

今天我們來預測幾個, 很可能在2018年進入我們眼簾的“人工智慧負能量”。

畢竟做好準備, 是解決問題的前提條件。

一、人工智慧倫理問題開始出現個案

2017年1月, 在加利福尼亞州阿西洛馬舉行的Beneficial Al會議上, 近千名人工智慧相關領域的專家, 聯合簽署了著名的《阿西洛馬人工智慧23條原則》。

隨後, 各種關於人工智慧倫理道德的討論、會議, 以及相關協會和科技組織開始出現在公眾視野裡。

《23條原則》的主要內容, 就是呼籲人工智慧不能損害人類的利益和安全, 同時人工智慧必須可以被人類控制, 同時人類要儘量尊重人工智慧和機器人的安全。

聽起來頗有點科幻的味道, 但是在各行各業開始部署AI, 尤其開始利用AI進行自動化決策的時候, 人工智慧的倫理與道德問題或許真的會浮出水面。

比如說, 自動駕駛車輛在馬上要發生事故時, 是優先保護路人還是乘客?假如AI診斷系統, 給出的建議是安樂死, 那麼它算是殺人嗎?為了避免更大損失, AI系統是否能打破規則, 自行其是?

這其中最著名的, 大概就是去年穀歌批評上海交大某團隊進行的“看臉定罪犯”研究。 引發了媒體對於AI價值觀的大量討論。

在各個產業場景開始使用AI技術時, 隨之而來的邊界問題、責權問題、道德選擇問題這些在實驗室中不會出現的矛盾將很可能被引發。

人類還從未真正討論過這些。 假如2018年人工智慧的落地化足夠快, 倫理問題的苗頭或許會臨近。

二、難以根治的的演算法歧視

記得2016年, 微軟推出過聊天機器人Tay, 卻因為用戶教給它大量種族歧視和髒話, 一天內就被暫時下線。 這引出了一個極具爭議的話題:機器學習會吸收人類的知識和資訊來塑造自己, 那麼假如它吸收的資訊含有大量“不那麼純良”的東西呢?

2017年, 演算法歧視問題非但沒有被解決, 各種各樣新的問題還應運而生。 比如穀歌大腦會給女性圖片打上很多關於家庭、弱勢的標籤, 顯然有悖於女權主義精神;而把黑人識別為大猩猩,則點燃了AI種族歧視的話題關注度。

所謂的演算法歧視,對於普通消費者來說,最有可能在內容推薦和電商推薦兩個地方感覺到。比如說消費者剛看過寬大的衣服,電商就推薦減肥藥,很可能讓消費者聯想到演算法在歧視自己胖;再比如打開今日頭條這類軟體的時候,大家可能都出現過這種情況:偶爾點了一個推薦來的獵奇或者偽色情內容,然後再一刷新。好嘛,蜂擁而至的類似內容啊,你本來想看的興趣內容和專業內容暫態間化為烏有。甚至你怎麼點我不關心不喜歡,平臺還是給你推薦。這就是因為演算法的歸類方式給你貼上了標籤。這種歧視感也蠻嚴重的,好像背後有個人奸笑著對你說:“承認吧,你就是這麼低俗…”

這類問題的根源,是機器學習技術進行個性推薦,今天還必須建立在兩個邏輯的基礎上:以過去算將來,以群體算個體。演算法會吸收以前有過的經驗來給你特定的某些東西,但很有可能歧視資訊就包含在機器吸收的經驗裡。

在個性推薦系統越來越多場景應用可能的今天,我們恐怕短期內還難以根治演算法的歧視。

三、私人資料與機器學習的矛盾日益凸顯

人工智慧和個人隱私,似乎從來都是一對天敵。

因為人工智慧技術假如想要提供個性化、完全符合個人習慣的服務,那麼就必然要學習和理解用戶本身。而這其中,就涉及對使用者私人資料的學習。

但出於隱私的考慮,以及對網路安全的不信任,大部分用戶顯然是不希望透露自己資料給機器的。

從而“雞生蛋蛋生雞”的矛盾就產生了。

近兩年,用AI來讀取使用者個人資料這件事一直處在被壓抑和不能提的狀態。更早一點的時候,蘋果和穀歌等大公司都推出過讓AI讀懂使用者的產品,但很快就被輿論抨擊給關停了。即使這樣,穀歌去年推出的家用AI相機還是飽受詬病。

在2017年後半段,我們看到了AI晶片拉開了風雲際會的爭奪序幕。但是搭載AI晶片的硬體一定要有的放矢,有任務可以完成。於是讓硬體讀懂使用者、讓系統根據使用者資料提供千人千面的服務,勢必會重新回到公共視野裡。

其實從大趨勢上看,把個人資料交給機器似乎是人類不可避免的歸宿。無論是醫療健康、金融服務還是社會安全,機器肯定都比人類更靠譜。只是這其中經歷的不適感和安全風險是巨大的。

在2018年,無論是手機、音箱、穿戴設備、VR,在啟用了機器學習能力後,似乎都要重新沾惹隱私資料這條紅線。

究竟怎麼處理這個矛盾,也是挺讓人頭疼的。

四、真假越來越難分

就目前來看,希望AI能像人一樣對話和理解,顯然還是為時過早的一件事。但是讓AI來造假,似乎已經問題不大了。

此前我們討論過視頻和直播換臉的可能,其實從整個技術進度來看,基於GAN的模擬和替換技術正在整體成熟。無論是類比替換音訊還是視頻檔,AI都已經能夠得心應手的處理。

但這肯定不會是什麼好事。在著名的Face2Face軟體推出的時候,國外網友就驚呼,假如跟我視頻聊天的人被替換了怎麼辦?

而在開發框架和資料資源越來越豐富、演算法越來越強勁的今天,大概我們可以很肯定的說:2018年用AI來偽造視頻音訊將更加天衣無縫。

這是AI對未來技術的探索,卻很可能引發社交媒體和網路傳播的動盪:當我們看到的視頻都可以完全造假的時候,這個世界還有什麼可以相信呢?

假作真時真亦假,只能期望反AI造假的AI系統也儘快出現吧。

五、駭客攻擊有更多花樣

2017年年末,穀歌TensorFlow被驚人的爆出框架漏洞,雖然是被白帽子找到,沒有造成危險,但這還是點醒了我們一點:AI並不安全。

至此,我們已經見識過了各種駭客攻擊和AI技術結合的可能性:用AI來偽造檔資訊實施攻擊和詐騙;利用AI技術來提升駭客攻擊效率;以AI系統為目標的攻擊。隨著AI和物聯網體系的結合,未來物聯網攻擊中很可能也會加入AI的身影。

AI技術的成熟,讓網路駭客們找到了更多的目標、更多的工具以及更多的技巧。雖然AI同樣給我們提供了各種保護互聯網安全的方式。但無論如何,AI帶給了駭客更多可能性是毫無疑問的。

2017年的網路安全世界並不平穩,各種各樣的病毒和駭客肆虐不絕於耳。進入2018,我們很可能會在這個戰場看到更激烈的搏殺。

結束語

就像任何一種技術革新一樣,AI也同樣在帶來價值的同時創造了危險。而且憑藉著識別和學習能力的特徵,AI帶來的負面影響說不定會比過往更大。

但是無論如何,技術就是這麼一步步推進的。更好的風景總是伴隨著更難走的路途。認識風險,並探索解決方案,或許才是人類與AI相處時更舒服的方式。

顯然有悖於女權主義精神;而把黑人識別為大猩猩,則點燃了AI種族歧視的話題關注度。

所謂的演算法歧視,對於普通消費者來說,最有可能在內容推薦和電商推薦兩個地方感覺到。比如說消費者剛看過寬大的衣服,電商就推薦減肥藥,很可能讓消費者聯想到演算法在歧視自己胖;再比如打開今日頭條這類軟體的時候,大家可能都出現過這種情況:偶爾點了一個推薦來的獵奇或者偽色情內容,然後再一刷新。好嘛,蜂擁而至的類似內容啊,你本來想看的興趣內容和專業內容暫態間化為烏有。甚至你怎麼點我不關心不喜歡,平臺還是給你推薦。這就是因為演算法的歸類方式給你貼上了標籤。這種歧視感也蠻嚴重的,好像背後有個人奸笑著對你說:“承認吧,你就是這麼低俗…”

這類問題的根源,是機器學習技術進行個性推薦,今天還必須建立在兩個邏輯的基礎上:以過去算將來,以群體算個體。演算法會吸收以前有過的經驗來給你特定的某些東西,但很有可能歧視資訊就包含在機器吸收的經驗裡。

在個性推薦系統越來越多場景應用可能的今天,我們恐怕短期內還難以根治演算法的歧視。

三、私人資料與機器學習的矛盾日益凸顯

人工智慧和個人隱私,似乎從來都是一對天敵。

因為人工智慧技術假如想要提供個性化、完全符合個人習慣的服務,那麼就必然要學習和理解用戶本身。而這其中,就涉及對使用者私人資料的學習。

但出於隱私的考慮,以及對網路安全的不信任,大部分用戶顯然是不希望透露自己資料給機器的。

從而“雞生蛋蛋生雞”的矛盾就產生了。

近兩年,用AI來讀取使用者個人資料這件事一直處在被壓抑和不能提的狀態。更早一點的時候,蘋果和穀歌等大公司都推出過讓AI讀懂使用者的產品,但很快就被輿論抨擊給關停了。即使這樣,穀歌去年推出的家用AI相機還是飽受詬病。

在2017年後半段,我們看到了AI晶片拉開了風雲際會的爭奪序幕。但是搭載AI晶片的硬體一定要有的放矢,有任務可以完成。於是讓硬體讀懂使用者、讓系統根據使用者資料提供千人千面的服務,勢必會重新回到公共視野裡。

其實從大趨勢上看,把個人資料交給機器似乎是人類不可避免的歸宿。無論是醫療健康、金融服務還是社會安全,機器肯定都比人類更靠譜。只是這其中經歷的不適感和安全風險是巨大的。

在2018年,無論是手機、音箱、穿戴設備、VR,在啟用了機器學習能力後,似乎都要重新沾惹隱私資料這條紅線。

究竟怎麼處理這個矛盾,也是挺讓人頭疼的。

四、真假越來越難分

就目前來看,希望AI能像人一樣對話和理解,顯然還是為時過早的一件事。但是讓AI來造假,似乎已經問題不大了。

此前我們討論過視頻和直播換臉的可能,其實從整個技術進度來看,基於GAN的模擬和替換技術正在整體成熟。無論是類比替換音訊還是視頻檔,AI都已經能夠得心應手的處理。

但這肯定不會是什麼好事。在著名的Face2Face軟體推出的時候,國外網友就驚呼,假如跟我視頻聊天的人被替換了怎麼辦?

而在開發框架和資料資源越來越豐富、演算法越來越強勁的今天,大概我們可以很肯定的說:2018年用AI來偽造視頻音訊將更加天衣無縫。

這是AI對未來技術的探索,卻很可能引發社交媒體和網路傳播的動盪:當我們看到的視頻都可以完全造假的時候,這個世界還有什麼可以相信呢?

假作真時真亦假,只能期望反AI造假的AI系統也儘快出現吧。

五、駭客攻擊有更多花樣

2017年年末,穀歌TensorFlow被驚人的爆出框架漏洞,雖然是被白帽子找到,沒有造成危險,但這還是點醒了我們一點:AI並不安全。

至此,我們已經見識過了各種駭客攻擊和AI技術結合的可能性:用AI來偽造檔資訊實施攻擊和詐騙;利用AI技術來提升駭客攻擊效率;以AI系統為目標的攻擊。隨著AI和物聯網體系的結合,未來物聯網攻擊中很可能也會加入AI的身影。

AI技術的成熟,讓網路駭客們找到了更多的目標、更多的工具以及更多的技巧。雖然AI同樣給我們提供了各種保護互聯網安全的方式。但無論如何,AI帶給了駭客更多可能性是毫無疑問的。

2017年的網路安全世界並不平穩,各種各樣的病毒和駭客肆虐不絕於耳。進入2018,我們很可能會在這個戰場看到更激烈的搏殺。

結束語

就像任何一種技術革新一樣,AI也同樣在帶來價值的同時創造了危險。而且憑藉著識別和學習能力的特徵,AI帶來的負面影響說不定會比過往更大。

但是無論如何,技術就是這麼一步步推進的。更好的風景總是伴隨著更難走的路途。認識風險,並探索解決方案,或許才是人類與AI相處時更舒服的方式。

Next Article
喜欢就按个赞吧!!!
点击关闭提示