您的位置:首頁>科技>正文

人工智慧發展速度迅猛 而倫理道德的發展困擾人類

人工智慧做出符合倫理的決策的能力是全世界辯論的熱門話題。 在討論自動駕駛汽車的未來時, 這個問題特別普遍, 但是它包含了類似于“刀鋒戰士”這樣的科幻電影所描繪的道德難題。

這些高層次的辯論主要是關於一個距今還有幾年的未來, 但人工智慧已經成為我們生活的一部分。 想想Siri, 亞馬遜的Alexa, 以及許多智慧手機上的照片分類功能。 像這些技術的普及已經影響了人們對機器智慧的看法。 在最近的一項調查中, 61%的受訪者表示社會將會因增加自動化和人工智慧而變得“更好”或“更好”。

但要獲得真正的人性化的智慧需要時間。 科學必須同時考慮創造智慧型機器的意義 - 可能涉及到機器人權利的水準和意識的本質。

隨著人工智慧創新不斷向前推進, 圍繞技術發展的倫理道路將會變得非常重要。

分散式運算使機器人更接近人類

複雜的人工智慧主題很難理解, 但辯論不會等待。 目前正在開發許多類似Blade Runner中所見的複製品所需的技術。 機器學習是AI的一個子集, 已經讓早期的機器人能夠通過觸摸和語言與人類進行交互。 這些能力對模仿人類行為至關重要。 自然語言處理也得到了改善,

使得一些機器人能夠回應複雜的語音命令, 並識別多個揚聲器, 即使在嘈雜的房間中間也是如此。

然而, 為了達到新的水準, 人工智慧將需要超越當今的技術, 設備的智慧還相對不成熟, 並提供更先進的處理。 這種處理將需要重大的工程進步, 特別是圍繞高效的計算能力, 資料存儲和獨立於雲(複製品不能依賴互聯網連接思考)。 面臨的挑戰是使機器能夠“親密學習”, 這與人類如何從經驗中學習相似。

它從分散式運算的思想開始。 AI演算法主要運行在龐大的資料中心。 例如, 一個聰明的揚聲器可能會識別關鍵字並喚醒, 真正的腦力勞動發生在距離數千英里的資料中心。 將來, 隨著研究人員加強AI演算法在設備上本地運行的能力,

這將會發生改變。 離散式學習加速器可以在必要時支援這些演算法, 使機器具有獨立思考和學習能力的新水準, 並使其在互聯網上的任何中斷變得更有彈性。 這也意味著一台機器可能不需要與雲共用敏感資訊。

許多科技公司都相信這一願景,

並正在推動設備的機器學習能力, 以便有一天能夠在所有設備上實現高級智慧, 從微型感測器到超級電腦。 這是一種分散式人工智慧計算, 這個過程與人腦中發現的過程類似, 基於超高效計算, 已經形成了獨立的認知能力。 雖然人類大腦的效率仍然比現在的任何晶片高出數萬倍, 但是我們可以看到人工智慧是如何跟隨進化路徑進入緊密學習狀態的。

在最近的進展中, 研究人員已經應用分散式運算概念來創建雙向腦計算介面(BBCI) - 電腦晶片網路, 其目標是植入人腦。 這個過程的目的是説明改善患有神經系統疾病或腦損傷的人的大腦功能。 但是這項技術也對先進的人工智慧有影響。

和人腦一樣,分散式網路中的每個節點都可以存儲和消耗自己的能量。這些迷你電腦可以運行從環境中提取的電磁輻射 - 就像手機和Wi-Fi信號一樣。由於計算能力強大,採用小型自充電封裝,理論上講,分散式運算網路可以執行高級人工智慧處理,而不依賴龐大的電池組或遠端伺服器場。

機器通過程式設計學習道德

分散式運算的出現有一天會導致人工智慧與人類智慧的比較。但是,我們如何確保現實生活中的複製者有複雜的決策和道德推理,他們需要在具有挑戰性的現實環境中安全地與人類交互?

利物浦大學的博士後研究員路易士·鄧尼斯(Louise Dennis)看到了一條路。對於她來說,所有這些都是關於對AI進行程式設計,其價值要足夠嚴格,以確保人身安全,但卻足夠靈活,以適應複雜的情況,有時也會相互矛盾的道德原則。

雖然我們遠沒有處理複製品的選擇如刀鋒在2049年那樣複雜,但人工智慧倫理學家們已經在努力解決一些棘手的問題。

舉個例子,英國圍繞無人駕駛飛機的規定進行辯論。鄧尼斯小組建議,公司計畫自動化飛機遵循民航局的空中規則。但民航局有一個擔憂。雖然民航局訓練飛行員遵守規則,但是當有必要維護人的生命的時候,他們也會被打斷。程式設計一個機器人知道什麼時候遵守規則,什麼時候打破這些規則並不是一件容易的事情。

讓事情變得更加複雜,價值觀並不普遍。我們的許多道德優先事項取決於我們的社區。人工智慧倫理必須具有一定的價值,而且不能與其他人商量,以使機器像人一樣運作。

人工智慧決策中的錯誤是不可避免的,其中一些會有後果。鄧尼斯說,儘管如此,AI承諾會提高安全性,我們最終必須決定什麼是可接受的風險水準。

“這永遠不會是完美的,”鄧尼斯說。 “我認為這只是人們決定什麼是盡職調查並接受事故將會發生的問題。”

對AI起義的恐懼被誇大了

大眾文化充斥著對人類的技術創新的警示,總會有反對者想把精靈留在瓶子裡。但是為時已晚。我們中的很多人已經在我們的日常生活中與人工智慧進行交互,而且這種融合無疑將變得更加穩固。但是像鄧尼斯這樣的專家在複製革命中並沒有失眠。事實上,她認為這樣的擔憂往往會讓人們分散注意力不集中在這個時候提出的問題。

鄧尼斯說:“我們應該停止擔心機器人是一種存在的威脅,並開始擔心社會將如何適應資訊革命,這很可能是相當具有破壞性的。

發展能夠做出道德決策的機器人將是這一適應過程的關鍵部分。雖然分散式運算可能使現實生活中的K成為可能,但未來的複製者不可能追捕人類。而且,如果人工智慧領域的進步速度與人工智慧本身一樣快,那麼未來的機器似乎可能會被設計和設計成為我們人類制定規則的複雜而又道德的決定。

和人腦一樣,分散式網路中的每個節點都可以存儲和消耗自己的能量。這些迷你電腦可以運行從環境中提取的電磁輻射 - 就像手機和Wi-Fi信號一樣。由於計算能力強大,採用小型自充電封裝,理論上講,分散式運算網路可以執行高級人工智慧處理,而不依賴龐大的電池組或遠端伺服器場。

機器通過程式設計學習道德

分散式運算的出現有一天會導致人工智慧與人類智慧的比較。但是,我們如何確保現實生活中的複製者有複雜的決策和道德推理,他們需要在具有挑戰性的現實環境中安全地與人類交互?

利物浦大學的博士後研究員路易士·鄧尼斯(Louise Dennis)看到了一條路。對於她來說,所有這些都是關於對AI進行程式設計,其價值要足夠嚴格,以確保人身安全,但卻足夠靈活,以適應複雜的情況,有時也會相互矛盾的道德原則。

雖然我們遠沒有處理複製品的選擇如刀鋒在2049年那樣複雜,但人工智慧倫理學家們已經在努力解決一些棘手的問題。

舉個例子,英國圍繞無人駕駛飛機的規定進行辯論。鄧尼斯小組建議,公司計畫自動化飛機遵循民航局的空中規則。但民航局有一個擔憂。雖然民航局訓練飛行員遵守規則,但是當有必要維護人的生命的時候,他們也會被打斷。程式設計一個機器人知道什麼時候遵守規則,什麼時候打破這些規則並不是一件容易的事情。

讓事情變得更加複雜,價值觀並不普遍。我們的許多道德優先事項取決於我們的社區。人工智慧倫理必須具有一定的價值,而且不能與其他人商量,以使機器像人一樣運作。

人工智慧決策中的錯誤是不可避免的,其中一些會有後果。鄧尼斯說,儘管如此,AI承諾會提高安全性,我們最終必須決定什麼是可接受的風險水準。

“這永遠不會是完美的,”鄧尼斯說。 “我認為這只是人們決定什麼是盡職調查並接受事故將會發生的問題。”

對AI起義的恐懼被誇大了

大眾文化充斥著對人類的技術創新的警示,總會有反對者想把精靈留在瓶子裡。但是為時已晚。我們中的很多人已經在我們的日常生活中與人工智慧進行交互,而且這種融合無疑將變得更加穩固。但是像鄧尼斯這樣的專家在複製革命中並沒有失眠。事實上,她認為這樣的擔憂往往會讓人們分散注意力不集中在這個時候提出的問題。

鄧尼斯說:“我們應該停止擔心機器人是一種存在的威脅,並開始擔心社會將如何適應資訊革命,這很可能是相當具有破壞性的。

發展能夠做出道德決策的機器人將是這一適應過程的關鍵部分。雖然分散式運算可能使現實生活中的K成為可能,但未來的複製者不可能追捕人類。而且,如果人工智慧領域的進步速度與人工智慧本身一樣快,那麼未來的機器似乎可能會被設計和設計成為我們人類制定規則的複雜而又道德的決定。

Next Article
喜欢就按个赞吧!!!
点击关闭提示