您的位置:首頁>正文

撞一個還是撞兩個?AI自駕車的道德如何判定

隨著各大企業都在進行AI的研究, 魔鬼終結者中描述的天網毀滅人類的情況出現可能性大增。

雖說現階段完全達到人類水準的人工智慧看似還很遙遠,

但人與機器之間的相互作用在數位化和自動學習系統的時代引起了新的道德問題。 尤其是火熱的自動駕駛領域, 現在已經面臨著很嚴峻的道德問題了。 那就是, 當出現生命與財產、生命與生命之間的抉擇時, 該如何做出選擇呢?比如威爾·史密斯主演的《 I, Robot 》中, 消防機器人就曾因生還率問題放棄了救援困在水下車輛的小女孩。

德國是汽車大國, 在 6 月的時候他們通過聯邦運輸和數字基礎設施部, 成立了一個由 14 名科學家和法律學者組成的道德委員會, 最近他們的研究報告也正式發佈了, 這份報告從本周起研發自動駕駛的開發者必須強制實行。

其中提出的規則有:

人類生命的保護始終是首要任務。 如果道路上的情況不妙, 並且看起來好像事故會發生, 車輛必須拯救人類免於死亡或受傷, 即使這意味著導致財產損失或其他生物死亡。

如果發生意外是不可避免的, 自駕車就不能為了救人而作出任何選擇 - 例如, 不能消滅老人救孩子。

不應該對年齡, 性別, 種族, 殘疾等做出決定; 所有人類生命都同等重要。

應該有一個監視系統 - 比如一個黑盒子 - 記錄導致事故發生的關鍵資訊, 這樣就可以分辨當時責任在誰, 是司機?自動駕駛系統?還是後車司機?同時司機的身份也應該記錄在案。 這樣保證責任劃分的正確。

司機應該完全知曉並控制自動駕駛車輛收集的個人資訊。 這將基本阻止科技巨頭採取定位資訊、個人習慣等資料來定制廣告行銷。

最終, 如果司機自身出現狀況導致事故, 司機仍然承擔責任, 除非是自動駕駛系統故障引起的, 在這種情況下, 製造商才會負起責任。

雖然德國是汽車大國, BBA的老家, 自動駕駛技術當今還是特斯拉最為領先, 但是關於到的抉擇問題,

業界一直沒有好的解決方案, 前方有五個人, 旁邊有兩個人, 自動駕駛系統是撞兩個還是撞五個?換做你會怎麼選擇?

這個問題Google 在 2015 年時就已經提出, Google 的自動駕駛部門主管就說明他們的系統沒辦法處理這種道德抉擇, 但系統會盡力保護最無辜的一方,

也就是行人。 在 2016 年時, Mercedes Benz 的 CEO 為這問題作出回應, 當時他就指自動駕駛系統應該在無辜行人以外, 最優先保護司機。 而德國政府卻認為, 這個問題不應該由自動駕駛系統選擇, 因為所有人的生命都是寶貴的。

我覺得, 無辜該如何界定呢?人的生命高於動物, 動物的生命高於財產, 同樣的生命, 該如何抉擇呢?年幼的高於年老的?富裕的高於貧窮的?男人高於女人?這種問題恐怕沒辦法抉擇, 遇到危險, 人類恐怕能憑本能反應進行操作, 而自動駕駛系統, 恐怕將來有錢人用 “自私” 性格的, 而普通人只能用 “偉大” 性格的吧?

同類文章
Next Article
喜欢就按个赞吧!!!
点击关闭提示