北京時間8月29日消息, Uber工程博客最近刊發一篇有趣的文章, 從內容看Uber使用Web式工具提煉自動駕駛汽車收集的研究資料, 將它變成視覺圖像。 無獨有偶, 上周《大西洋月刊》也刊發一篇長文, 說Waymo開發了相似的平臺。
《大西洋月刊》的文章很有趣, 它似乎暗示谷歌改進無人駕駛AI的方法很獨特。 真是這樣嗎?不是的, 似乎每一家研究無人駕駛的公司都採用了相似的方法。
當測試汽車行駛了很遠的距離, 企業會獲得大量資料。 你可以在虛擬環境中讓資料組合、匹配, 讓AI在虛擬環境中導航, 就像在真實世界導航一樣。
Uber文章談論的重點在於資料的“視覺化”, 它還詳細介紹了自己的工具, 工具是以Web作為基礎的, 這樣協作起來更容易, 開發新功能時調整方向也更簡單。 現在Web應用程式已經可以訪問GPU, 即時通信, 完成許多工時不再需要本地用戶端。 Web應用程式還可以用來顯示GIF圖像。
有一點是博文沒有談到的:修飾環境, 讓它從整個背景中突顯出來, 從而進一步放大資料的價值, Uber是如何做的?例如, 系統如果碰到遊行抗議一樣的大事件如何處理?舉辦馬拉松比賽時是不是讓汽車自由行駛, 這樣就可以瞭解跑步者是如何行動的?顯然不行。
最好的辦法就是拿一張波士頓地圖,
把握企業情緒, 共同探討破局之路>>
【版權提示】億邦動力網宣導尊重與保護智慧財產權。 如發現本站文章存在版權問題, 煩請提供版權疑問、身份證明、版權證明、聯繫方式等發郵件至run@ebrun.com, 我們將及時溝通與處理。