AI的核心是類比人類的思維模式, 這意味著AI的技術發展將可能不僅止於機器的邏輯思考, 還將關係到媲美人類的思考、決策、甚至情感。 因此, AI應用的邊界何在?AI應用和風險管控如何有效進行?國內外AI倫理建設是否有章可循?一切問題, 將在2018年5月20日召開的人工智慧應用與倫理挑戰論壇鋪開討論。
人工智慧應用與倫理挑戰
人工智慧應用與倫理挑戰論壇作為全球人工智慧技術大會的組成部分之一, 主辦單位中國人工智慧學會與承辦單位博古睿研究院中國中心共同邀請到國內外一流大學的學術大咖、知名科學院所的研究顧問、AI產業界科學家組成的嘉賓陣容,
“助手”還是“對手”
回顧2017年人工智慧應用的幾大“門事件”, 最引發關注的莫過於Face ID被越南一家安全公司Bkav使用3D技術製造出的面具所破解;近日, Facebook資訊洩露門也在美國社會激起了一場軒然大波, 涉及8700萬使用者資訊, 致使紮克伯格在長達5小時的聽證過程中經受了來自兩黨的立法者的輪番轟炸。
科學家一直希望以最簡單的辦法,保證以機器人為代表的人工智慧不給人類帶來任何威脅。 陳小平教授曾在2017年末接受新華每日電訊採訪時提到:“要規範人工智慧發展,首先要把基礎的技術先研究好, 具備治理的能力,進而提出我們自己的意見和規則。 ”這就說明, 從技術角度規避人工智慧違規應用業已成為AI學者與業內科學家的研究方向。
作為本次論壇的重要嘉賓之一,
面對機器地位與人類權益, “如何有效實現AI技術的社會價值”的相關問題理應從技術、社科、法律等多角度共同應對和解決。 因此, 人工智慧應用與倫理挑戰論壇還邀請到IBM Watson研究中心科學家、世界人工智慧聯合會IJCAI前主席、帕多瓦大學電腦科學教授Francesca Rossi, 新松機器人自動化股份有限公司總裁、中國科學院瀋陽自動化研究所研究員、中國機器人產業聯盟主席曲道奎,
相信如果用“千里馬”比喻人工智慧在人類技術發展中的地位,