您的位置:首頁>科技>正文

人工智慧:啟動世界變革的快進鍵|社會科學報

點擊上方“社會科學報”關注我們哦!

頭條新聞

近年來, 人工智慧技術在新航道上極速發展。 中國提出“中國製造2025”的戰略目標, 希望在未來數十年進一步促進經濟增長和創新發展, 其基礎之一當屬人工智慧技術。 今年全國兩會期間, “人工智慧”首次被寫入《政府工作報告》, 要求加快培育壯大包括人工智慧在內的新興產業。

7月20日, 國務院印發我國首部國家級人工智慧發展規劃《新一代人工智慧發展規劃》,

提出到2030年, 人工智慧理論、技術與應用總體達到世界領先水準, 成為世界主要人工智慧創新中心。 人工智慧在中國迎來了史上最大機遇, 未來十年將是人工智慧領域紅利大爆發的十年。

全文大約3700字, 閱讀時長約為9分鐘。

報紙原文:《人工智慧:啟動世界變革的快進鍵》

本報記者 田川

發展:將推動世界經濟增長

1950年, 英國科學家艾倫·麥席森·圖靈校長徐楊生對此也有同感, 他打了一個比方:前50年, 我們研究的多是機器人“穿衣服”這個動作, 卻沒有讓機器人學會“要不要穿衣服”等感知和認知能力。

據英國《新科學家》週刊網站文章稱, 實現先進的人類水準的人工智慧要克服三大挑戰:它如何計畫一系列行動以實現目標;它如何模擬它的環境;它反思它的處境與行為的能力。

例如, AlphaGo戰勝李世石產生的一個直接效應是, 很多人認為, AlphaGo的勝利意味著人工智慧已經突破某種極限達到了高智慧水準, 照此下去, 人類所珍視的所有智慧終將被機器所替代, 人類未來命運著實堪憂。

但事實上, 雖經歷數十載歲月的洗禮, 人工智慧目前還沒有擺脫“無心的機器”的命運, 今天的人工智慧可以說既無智力也無心靈。 這是因為目前電腦使用的都是二進位編碼的圖靈機計算, 是遞迴演算法。 “機器理解語言嗎?機器懂得人類語言表達的意義嗎?”中國人民大學哲學院現代邏輯與科學哲學研究所所長劉曉力教授告訴本報, 時至今日, 機器根本不能理解語言的意義, 不能理解我們跟外部世界究竟有怎樣的關聯, 因為這個意義的解釋者只有人類自身。

人有喜怒哀樂、愛恨情愁;有追求真理的欲望;有宗教情感和同情之心, 能在與他人的交流中獲得理解、體驗痛苦和快樂;人也經常會出錯會失敗,

有各種非理性的行為。 這些正是人之為人的價值所在。 機器沒有這樣的信念欲望意圖和意識體驗。 儘管目前人工智慧專家也在研究機器情感、機器意識, 但是離機器真正有情感有意識和意識體驗, 恐怕還有本質上的距離。

未來:應嚴把倫理尺度

物理學家史蒂芬·霍金(Stephen Hawking)曾感到憂慮:“人工智慧的強力崛起, 可能是人類歷史上最好的事情, 也可能是最糟糕的。 將來, 人工智慧可能會發展出來它自己的意志, 一個與人類相衝突的意志。 ”當然, 機器人也可能並不與人類衝突, 而是發展出與人類相近的意識與情感。 這同樣會遭遇棘手的法律和倫理問題。 英國劍橋大學已收到資助以建立人工智慧倫理研究所, 由哲學家、法學家、歷史學家、心理學家和技術人員一起研究相關行業規範。 這一行為具有必要性和前瞻性,現階段人工智慧沒有意志,需要規範人工智慧的使用界限;也要在研究中防止人工智慧出現意志的可能,一旦出現,後果將不可預料。

“應該研究是否需要明確機器人的法律主體地位,並從民法、公法、隱私法、智慧財產權法等維度構建機器人法律框架。”阿姆斯特丹自由大學羅伯特哈文教授談到,就像從嬰兒到成人,伴隨機器人的進化,它將被不斷賦予更多的人權與責任。

穀歌、臉書和其他從事人工智慧開發的企業表示,它們將建立道德問題專家小組來考慮合理利用這些技術。人們需要某種形式的外部監督來保護公眾免受人工智慧某些發展的負面影響。一些法律問題,比如隱私保護和自動駕駛汽車的責任認定等,將對人工智慧的發展及應用有著舉足輕重的影響。在中國,應形成一套透明和廣泛的質詢程式來確保公眾做好迎接變革的準備。

2016年8月,中國科技法學會人工智慧法專業委員會正式設立。北京大學智慧財產權學院常務副院長張平告訴本報,專委會將致力於與人工智慧相關的倫理、政策和法律法規研究,從近期棘手的無人駕駛,到遙遠可怖的“超級人工智慧”,為中國政府和業界提供必要的預警和前瞻研究。

“讓智慧型機器具有複雜的功能性道德,就是要構建一種可執行的機器倫理機制,使其能即時地自行做出倫理抉擇。”中國社會科學院哲學所科技哲學研究室主任段偉文研究員向本報表示,在實踐層面,機器倫理構建的具體策略有三:其一是自上而下,即在智慧體中預設一套可操作的倫理規範。其二是自下而上,即讓智慧體運用反向強化學習等機器學習技術研究人類相關現實和模擬場景中的行為,使其樹立與人類相似的價值觀並付諸行動。其三是人機交互,即讓智慧體用自然語言解釋其決策,使人類能把握其複雜的邏輯並及時糾正其中可能存在的問題。

在人工智慧時代來臨之際,應嚴把人工智慧的倫理尺度。人工智慧和包括機器人在內的智慧化自動系統的普遍應用,不僅僅是一場結果未知的開放性的科技創新,更將是人類文明史上影響甚為深遠的社會倫理試驗。

文章原載於社會科學報第1577期第1版,文中內容僅代表作者觀點,不代表本報立場。

大家都在看

長按二維碼關注

做優質的思想產品

社會科學報

微信號:shehuikexuebao

社會科學報官網:http://www.shekebao.com.cn/

這一行為具有必要性和前瞻性,現階段人工智慧沒有意志,需要規範人工智慧的使用界限;也要在研究中防止人工智慧出現意志的可能,一旦出現,後果將不可預料。

“應該研究是否需要明確機器人的法律主體地位,並從民法、公法、隱私法、智慧財產權法等維度構建機器人法律框架。”阿姆斯特丹自由大學羅伯特哈文教授談到,就像從嬰兒到成人,伴隨機器人的進化,它將被不斷賦予更多的人權與責任。

穀歌、臉書和其他從事人工智慧開發的企業表示,它們將建立道德問題專家小組來考慮合理利用這些技術。人們需要某種形式的外部監督來保護公眾免受人工智慧某些發展的負面影響。一些法律問題,比如隱私保護和自動駕駛汽車的責任認定等,將對人工智慧的發展及應用有著舉足輕重的影響。在中國,應形成一套透明和廣泛的質詢程式來確保公眾做好迎接變革的準備。

2016年8月,中國科技法學會人工智慧法專業委員會正式設立。北京大學智慧財產權學院常務副院長張平告訴本報,專委會將致力於與人工智慧相關的倫理、政策和法律法規研究,從近期棘手的無人駕駛,到遙遠可怖的“超級人工智慧”,為中國政府和業界提供必要的預警和前瞻研究。

“讓智慧型機器具有複雜的功能性道德,就是要構建一種可執行的機器倫理機制,使其能即時地自行做出倫理抉擇。”中國社會科學院哲學所科技哲學研究室主任段偉文研究員向本報表示,在實踐層面,機器倫理構建的具體策略有三:其一是自上而下,即在智慧體中預設一套可操作的倫理規範。其二是自下而上,即讓智慧體運用反向強化學習等機器學習技術研究人類相關現實和模擬場景中的行為,使其樹立與人類相似的價值觀並付諸行動。其三是人機交互,即讓智慧體用自然語言解釋其決策,使人類能把握其複雜的邏輯並及時糾正其中可能存在的問題。

在人工智慧時代來臨之際,應嚴把人工智慧的倫理尺度。人工智慧和包括機器人在內的智慧化自動系統的普遍應用,不僅僅是一場結果未知的開放性的科技創新,更將是人類文明史上影響甚為深遠的社會倫理試驗。

文章原載於社會科學報第1577期第1版,文中內容僅代表作者觀點,不代表本報立場。

大家都在看

長按二維碼關注

做優質的思想產品

社會科學報

微信號:shehuikexuebao

社會科學報官網:http://www.shekebao.com.cn/

Next Article
喜欢就按个赞吧!!!
点击关闭提示