您的位置:首頁>科技>正文

隱患!2018可能會爆發的人工智慧負能量!

當AI高速發展, 技術進步後帶來的潛在風險也在升溫。 今天咱們就來看看, 未來1年有可能出現的“人工智慧負能量”。

道德問題

其實早在2017年1月, 在美國舉行的Beneficial Al會議上, 就有近千名人工智慧領域的專家一起簽署了一項“原則”, 就是著名的《阿西洛馬人工智慧23條原則》。

這其中的主要內容無非就是呼籲人工智慧不能損害人類的利益和安全, 必須可以被人類控制等老生常談的問題。

不過, 同時也說到了人類要儘量尊重人工智慧和機器人的安全。

於是乎, 一時間關於人工智慧倫理道德的討論, 甚至組織、協會都開始出現在。 這聽起來貌似頗具科幻色彩, 但隨著AI進入各行各業, 道德問題真的就不可避免了。

現實中, 交通事故頻發, 是不爭的事實。

一直以來, 交通事故的肇事者是人, 懲罰的是人。 若以後的肇事者變成了機器, 那麼又能懲罰誰呢?你不能懲罰機器, 那麼該找製造它的程式師嗎?當然說不過去。

所以, 看似難以克服的是技術上的瓶頸, 但道德瓶頸或許才是終極BOSS。 不少人不看好無人駕駛技術, 不是不知道自動駕駛的事故率比人工低, 而是顧忌自動駕駛的補償性遠不如人工駕駛。

被教壞的機器人

如果你一直關注科技圈, 就一定還記得2016年微軟推出的可憐聊天機器人Tay。

Tay是個會學習的機器人, 微軟推出它的本意, 是讓它在與人們的交流中不斷學習, 隨著時間積累, 它的理解能力將逐步提升, 變得愈發“智慧”。

但沒想到的是, 才上線不到24小時Tay就向著不可控的方向發展了。

在一些網友的惡意教唆下, 它開始出言不遜、髒話不斷, 甚至充滿歧視和偏見。 作為“家長”的微軟只能不停刪除Tay的不當言論, 並急忙把它關在家裡。

Tay變成一個“不良少女”, 其實和微軟也有一定關係, 開發團隊一開始並沒有意識到要對Tay的回復內容進行設定。

只為Tay裝配了髒話相關的篩檢程式, 微軟沒有考慮到網路的複雜性, 以至於讓這個單純的機器人被教壞了。

智慧型機器人從一定程度上與小孩有相似之處, “智慧”的增長, 有很大部分仰賴於它接收到的資料。 這跟咱們經常說的“近朱者赤近墨者黑”是一樣的道理。

人類社會是個複雜的環境, 有友好的朋友, 自然也有故意教壞人工智慧不嫌事大的吃瓜群眾。 以後應該怎麼過濾這類問題又不會莫名其妙遮罩正常聊天, 是技術人員應該考慮的問題。

還有日漸興起的智慧語音助手,能如此牛逼地瞭解用戶的需求,從一方面來說也是對用戶隱私的一種滲透。一旦被駭客利用,那大家的麻煩就大了。

總而言之,就像每一種技術革新都會帶來威脅一樣,AI在創造價值的同時也伴隨了無數潛在危險。今後AI識別和學習能力更進一步時,帶來的負面影響說不定會更大。

關注人工智慧領域

DATADUO

致力於

做中國最好的人工智慧技術培訓

做中國最專業的人工智慧產品推廣平臺

做中國領先的AI早期VC服務

共 享 A I 未 來

還有日漸興起的智慧語音助手,能如此牛逼地瞭解用戶的需求,從一方面來說也是對用戶隱私的一種滲透。一旦被駭客利用,那大家的麻煩就大了。

總而言之,就像每一種技術革新都會帶來威脅一樣,AI在創造價值的同時也伴隨了無數潛在危險。今後AI識別和學習能力更進一步時,帶來的負面影響說不定會更大。

關注人工智慧領域

DATADUO

致力於

做中國最好的人工智慧技術培訓

做中國最專業的人工智慧產品推廣平臺

做中國領先的AI早期VC服務

共 享 A I 未 來

Next Article
喜欢就按个赞吧!!!
点击关闭提示