您的位置:首頁>正文

無人駕駛的車禍率要多低,你才敢放心乘坐?

編者按:《快公司》編輯部在挖掘“2017中國商業最佳創新公司”期間接觸了大量的無人駕駛公司, 他們大部分都將注意力集中在技術攻關,

但無人駕駛可能帶來的隱憂也漸漸顯現出來。 最著名的莫過於“電車難題”。 “電車難題(The Trolley Problem)”是倫理學領域最為知名的思想實驗之一, 其內容大致是:一個瘋子把五個無辜的人綁在電車軌道上。 一輛失控的電車朝他們駛來, 並且片刻後就要碾壓到他們。 幸運的是, 你可以拉一個拉杆, 讓電車開到另一條軌道上。 然而問題在於, 那個瘋子在另一個電車軌道上也綁了一個人。 考慮以上狀況, 你是否應拉杆?

快公司也曾做過類似的設想:一名孕婦乘坐著一輛自動駕駛汽車, 與此同時, 一個14歲的女孩正騎著自行車走在相反的車道上。 此時, 一輛載有兩名乘客的貨車突然駛出, 沖向孕婦乘坐的汽車, 這輛自動駕駛汽車必須做出選擇:一頭撞向貨車,

孕婦可能流產, 貨車裡的兩名男子會受點輕傷, 或者轉向騎單車女孩的車道, 結果可能要了她的命。 它會如何決定?

“無人車會夢見安全街嗎?”(Do Self-Driving Cars Dream Of Safe Streets?), 這個模仿《銀翼殺手》原著小說《仿生人會夢見電子羊嗎?》而起的標題, 引發我們關注無人駕駛未來道路安全——在未來, 每年無人車的致死率究竟多低才可以接受?究竟有沒有這麼一種方案能夠解決這個問題呢?Mobileye提出了自己的方案。

去年在德克薩斯州奧斯丁舉行的SXSW大會上, Bill Ford大聲說出了很多汽車行業人士正在思考的問題, 或者更確切地說, 是這幫人所不願意承認的擔憂。 這位福特的CEO談論的是無人駕駛汽車的出現, 這個話題正是當下最受關注的領域, 因為沒有一家汽車製造商想在在這場備戰中落後於人, 矽谷的一些最大的參與者也已經把數十億美元都投入到“裸”機器人汽車上[沒有方向盤或刹車的所謂的5級自動駕駛車輛, 或自動駕駛車隊(AV)]。

Ford說, 隨著技術迅速發展, 製造汽車將變成最容易的部分。 但更艱巨的任務將是決定如何進行程式設計,

讓無人車做出某些道德人倫的決定。 “(在即將發生事故的情況下)如果車輛必須選擇要撞誰, 是保乘客還是10位行人呢?這些都是你和我作為司機沒有時間考慮的決定, 我們只能下意識地作出反應。 但是這些無人車是有處理能力來進行選擇的。 如果結果是它選擇讓你, 車上的乘客被撞的話, 你是不是還打算坐進那輛車呢?

儘管Ford公開拋出這個問題令汽車業感到心神不定, 但這與美國汽車買家普遍存在的想法其實是一致的。 在今年早些時候進行的一項調查中, AAA發現四分之三的駕駛者表示自己對坐在無人車上感到擔心, 54%的受訪者表示他們覺得與AV共用車道不太安全。 而一旦Ford把這個問題爆了出來,

AV界的其他一些人就開始把它扯到一個到合乎邏輯的結論上。

英特爾公司高級副總裁兼無人車技術公司Mobileye的聯合創始人Amnon Shashua表示:“如果我們必須教一輛車應該殺死一位修女還是一位童子軍的話, 那就不會有無人車這個行當了。 ”今年3月份, 英特爾剛剛以153億美元的價格收購了這家輔助安全駕駛公司。

但是Shashua認為, 為了解決這個問題, 我們需要把他框定到更實際的範圍內, 要有別於複雜到難以複加的哲學或倫理難題。 他說, 簡單來說, 自動駕駛汽車是否能獲得消費者的廣泛接受這個問題可歸結為這樣一個重要問題:自動駕駛汽車每年導致多少起以下的死亡數才是公眾可以接受的?

目前情況下, 這個問題的答案可能是0。每一次自動駕駛車輛發生事故,無論是去年在佛羅里達州發生的一輛卡車撞上自動駕駛的Tesla的那起致命車禍,還是那輛嶄新的自動駕駛通勤車剛剛亮相2個小時就被一輛送貨的麵包車撞到,一旦發生都立即成為了引爆全國的頭條新聞,對事故的討論往往持續數月之久。

相比之下,20輛汽車的連環相撞事故幾乎每天都會發生,甚至在好幾個星期之內,即使傳統車輛的碰撞事故造成了死亡人數超過了100人,其效果也只能是出現在當地新聞上,大家的態度充其量不過是是聳聳肩。

在全球各地的監管機構都恨不得把這種車放行上路以最大限度減少無休止的交通致死事故的情況下,對無人車安全性錯位的關注和恐慌被進一步的強化。去年,美國國家公路交通安全管理局(NHTSA)已經批准了將自動駕駛汽車作為“極大減少與人類選擇和行為相關的事故數量”的一種手段。

Mobileye安全系統的核心是一個被稱為Cautious Command(謹慎指令)的概念,這個概念描述了AV可用於持續維持其安全區的選項。比方說,下圖顯示的是一種常見情況,即藍色汽車試圖離開停車場,但因為被建築物擋住,所以看不到街上是否有另一輛車正在開過來。負責任的人類司機會一點點地擠進道路,慢慢擴大視野,直到他覺得可以放心開上路為止。

但實際上,他永遠不會有完全的視野,最後只能根據直覺來做出決定。儘管這位司機也許已經盡力,但令他受到指責的事故仍有發生的可能。而如果駕駛員開車走神的話,比如因為開了導航或者一邊打電話一邊開往下一站的話,就更有可能發生碰撞了。

相比之下,AV的Cautious Command會根據車速限制計算出紅色車最高的合理速度,並確定自己可以探頭出來多遠,讓紅色車一方面有刹車的機會,同時還能逐漸提高能見度。如果紅車的車速高於最高限速,那麼如果發生事故就是紅車的錯。而且,如果紅車是無人車的話,它駕駛起來會更加警惕,在預計到在其視線以外可能會有汽車駛出停車場的情況下,也許會往靠近中間的車道行駛。

RSS(責任敏感安全)涵蓋了物件(車輛,行人等)被其他物件遮擋(隱藏)的情況

Cautious Command似乎有望令Bill Ford對自動駕駛汽車必須做出棘手選擇的擔憂失去意義,因為在即將發生的事故中有關誰死誰活的倫理困境,已經被一條不帶感情、不會動搖的規則所取代。這條規則是:如果碰撞即將發生(而且根據定義,這不會是AV的錯誤),自動駕駛汽車將會儘量避免事故,但不會通過造成另一個事故來緩解這起事故。

換句話說,如果沒有其他安全選項的話,無人車將會撞上去,即便在此過程中乘客會被撞死。Shashua說:“以任何其他方式來回答這個問題都會使我們陷入滑坡謬誤。因為一輛看起來後座似乎沒人坐的汽車其實正好坐著一個嬰兒,這樣如果它為了避免前面的AV撞上自己而調轉車頭的話可能就會撞到嬰兒。總會有一些看不到的參數讓你事後分析起來會發現AV其實做了更糟糕的事。”

基於對成千上萬次事故的模擬,Mobileye認為,如果每一家汽車製造商都採用它的方程式(Mobileye已經對業界開源,可免費使用),美國每年的車輛致死人數可以改善三個數量級——也就是說,從現在每100萬駕駛小時致死1人降到到每10億駕駛小時致死40人。(當然,此處的假設是所有的車都是無人車;而致死原因會是設備故障以及糟糕的駕駛條件)。

一些機器人專家已經對Mobileye系統的安全性提出了質疑。比如說,杜克大學Humans and Autonomy Lab(人類與自治實驗室)主任Missy Cummings就告訴EETimes說,Mobileye對有可能困擾AV的軟體漏洞數量過於忽略。

她指出,2016年的Stout Risius Ross汽車保修和召回報告顯示,自2012年以來,軟體問題日益成為召回事件的主角。研究發現,在2005年至2012年間,發生了32起獨立的與軟體有關的召回事件,共涉及約360萬輛汽車;從2012年底到2015年6月期間,這些數字幾乎翻了一番。不過,所有接受EETimes採訪的學者和工程師都表揚了Mobileye致力於將AV產業推向安全合法解決方案的努力。

到目前為止,汽車業對Mobileye演算法的反響並不算好,這主要是因為目前在AV領域仍有很多爭議,從Google、Uber、Lyft到數十家初創公司以及各大汽車製造商都承諾在2020年代初造出全自動汽車。

目前情況下,沒有人願意冒失去潛在市場的領導地位的風險,如果過早同意採用的標準到頭來成為失敗者該怎麼辦? (還記得Betamax嗎?) 汽車技術分析機構C3 Group 的總裁兼聯合創始人Doug Newcomb 說:“在應該具備某種安全標準的事情上Mobileye是對的,但在無人車的乘客這麼多的情況下,除了狂野西部式的做法以外,汽車製造商對技術研發還沒有太大的欲望。”

在無人車開發商的壓力下,美國聯邦政府似乎已經同意採取不干涉主義的立場。美國眾議院通過準備遞交參議院的一項法案將會取代各州對無人車道路測試的臨時規定,該法案將授權NHTSA對AV車輛的設計,建造以及性能進行監管,而各州只處理車輛註冊和許可證的問題。也許最重要的是,該法案將允許NHTSA授予無人車製造商每年(也可能是3年)可將高達10萬輛不符合現行聯邦機動車安全標準的車輛放行上路的豁免權。

在即將出臺的法律規制如此寬鬆的情況下,Mobileye要想說服無人車行業以一致的方式來處理安全和事故責任問題似乎還有很艱巨的工作要做。這意味著我們也許會不情願地更早發現一個答案,那就是通過對無人車的決策進行程式設計來扮演上帝角色的開發者究竟是不是跟他們相信自己可以做出來的機器一樣絕對可靠。

-End-

這個問題的答案可能是0。每一次自動駕駛車輛發生事故,無論是去年在佛羅里達州發生的一輛卡車撞上自動駕駛的Tesla的那起致命車禍,還是那輛嶄新的自動駕駛通勤車剛剛亮相2個小時就被一輛送貨的麵包車撞到,一旦發生都立即成為了引爆全國的頭條新聞,對事故的討論往往持續數月之久。

相比之下,20輛汽車的連環相撞事故幾乎每天都會發生,甚至在好幾個星期之內,即使傳統車輛的碰撞事故造成了死亡人數超過了100人,其效果也只能是出現在當地新聞上,大家的態度充其量不過是是聳聳肩。

在全球各地的監管機構都恨不得把這種車放行上路以最大限度減少無休止的交通致死事故的情況下,對無人車安全性錯位的關注和恐慌被進一步的強化。去年,美國國家公路交通安全管理局(NHTSA)已經批准了將自動駕駛汽車作為“極大減少與人類選擇和行為相關的事故數量”的一種手段。

Mobileye安全系統的核心是一個被稱為Cautious Command(謹慎指令)的概念,這個概念描述了AV可用於持續維持其安全區的選項。比方說,下圖顯示的是一種常見情況,即藍色汽車試圖離開停車場,但因為被建築物擋住,所以看不到街上是否有另一輛車正在開過來。負責任的人類司機會一點點地擠進道路,慢慢擴大視野,直到他覺得可以放心開上路為止。

但實際上,他永遠不會有完全的視野,最後只能根據直覺來做出決定。儘管這位司機也許已經盡力,但令他受到指責的事故仍有發生的可能。而如果駕駛員開車走神的話,比如因為開了導航或者一邊打電話一邊開往下一站的話,就更有可能發生碰撞了。

相比之下,AV的Cautious Command會根據車速限制計算出紅色車最高的合理速度,並確定自己可以探頭出來多遠,讓紅色車一方面有刹車的機會,同時還能逐漸提高能見度。如果紅車的車速高於最高限速,那麼如果發生事故就是紅車的錯。而且,如果紅車是無人車的話,它駕駛起來會更加警惕,在預計到在其視線以外可能會有汽車駛出停車場的情況下,也許會往靠近中間的車道行駛。

RSS(責任敏感安全)涵蓋了物件(車輛,行人等)被其他物件遮擋(隱藏)的情況

Cautious Command似乎有望令Bill Ford對自動駕駛汽車必須做出棘手選擇的擔憂失去意義,因為在即將發生的事故中有關誰死誰活的倫理困境,已經被一條不帶感情、不會動搖的規則所取代。這條規則是:如果碰撞即將發生(而且根據定義,這不會是AV的錯誤),自動駕駛汽車將會儘量避免事故,但不會通過造成另一個事故來緩解這起事故。

換句話說,如果沒有其他安全選項的話,無人車將會撞上去,即便在此過程中乘客會被撞死。Shashua說:“以任何其他方式來回答這個問題都會使我們陷入滑坡謬誤。因為一輛看起來後座似乎沒人坐的汽車其實正好坐著一個嬰兒,這樣如果它為了避免前面的AV撞上自己而調轉車頭的話可能就會撞到嬰兒。總會有一些看不到的參數讓你事後分析起來會發現AV其實做了更糟糕的事。”

基於對成千上萬次事故的模擬,Mobileye認為,如果每一家汽車製造商都採用它的方程式(Mobileye已經對業界開源,可免費使用),美國每年的車輛致死人數可以改善三個數量級——也就是說,從現在每100萬駕駛小時致死1人降到到每10億駕駛小時致死40人。(當然,此處的假設是所有的車都是無人車;而致死原因會是設備故障以及糟糕的駕駛條件)。

一些機器人專家已經對Mobileye系統的安全性提出了質疑。比如說,杜克大學Humans and Autonomy Lab(人類與自治實驗室)主任Missy Cummings就告訴EETimes說,Mobileye對有可能困擾AV的軟體漏洞數量過於忽略。

她指出,2016年的Stout Risius Ross汽車保修和召回報告顯示,自2012年以來,軟體問題日益成為召回事件的主角。研究發現,在2005年至2012年間,發生了32起獨立的與軟體有關的召回事件,共涉及約360萬輛汽車;從2012年底到2015年6月期間,這些數字幾乎翻了一番。不過,所有接受EETimes採訪的學者和工程師都表揚了Mobileye致力於將AV產業推向安全合法解決方案的努力。

到目前為止,汽車業對Mobileye演算法的反響並不算好,這主要是因為目前在AV領域仍有很多爭議,從Google、Uber、Lyft到數十家初創公司以及各大汽車製造商都承諾在2020年代初造出全自動汽車。

目前情況下,沒有人願意冒失去潛在市場的領導地位的風險,如果過早同意採用的標準到頭來成為失敗者該怎麼辦? (還記得Betamax嗎?) 汽車技術分析機構C3 Group 的總裁兼聯合創始人Doug Newcomb 說:“在應該具備某種安全標準的事情上Mobileye是對的,但在無人車的乘客這麼多的情況下,除了狂野西部式的做法以外,汽車製造商對技術研發還沒有太大的欲望。”

在無人車開發商的壓力下,美國聯邦政府似乎已經同意採取不干涉主義的立場。美國眾議院通過準備遞交參議院的一項法案將會取代各州對無人車道路測試的臨時規定,該法案將授權NHTSA對AV車輛的設計,建造以及性能進行監管,而各州只處理車輛註冊和許可證的問題。也許最重要的是,該法案將允許NHTSA授予無人車製造商每年(也可能是3年)可將高達10萬輛不符合現行聯邦機動車安全標準的車輛放行上路的豁免權。

在即將出臺的法律規制如此寬鬆的情況下,Mobileye要想說服無人車行業以一致的方式來處理安全和事故責任問題似乎還有很艱巨的工作要做。這意味著我們也許會不情願地更早發現一個答案,那就是通過對無人車的決策進行程式設計來扮演上帝角色的開發者究竟是不是跟他們相信自己可以做出來的機器一樣絕對可靠。

-End-

同類文章
Next Article
喜欢就按个赞吧!!!
点击关闭提示