2016年,特斯拉宣布其生產的所有特斯拉汽車(包括入門車型 Model 3)都將配備可實現完全自動駕駛功能的硬件,并且安全級別將遠遠高于人類自己駕駛。
看到這條消息,讓我想到了有關無人駕駛實現路徑的兩個主要問題:
信息輸入端(Input):視覺還是激光雷達?
信息處理端(Processing):算法為王還是數據為王?
無人駕駛汽車上主要的傳感器:激光雷達、攝像、毫米波雷達、GPS、超聲波雷達和車輪轉角傳感器等。
無人駕駛:以視覺為主還以激光雷達為主?
Elon Musk 曾經在公開場合多次說過,不用激光雷達只用攝像頭,也能實現 Level 4 以上的無人駕駛。但是我個人覺得他這么說其實是有商業(yè)化方面的考慮。
特斯拉的汽車已經在售,賣出去的車只能更新軟件,肯定不能換硬件,比如全部重新裝上激光雷達(不然今天特斯拉官方也不會說現在在產的特斯拉汽車會換上新的硬件系統)。
況且,Google 無人車用的 64 線 Velodyne 激光雷達本身的價格高達 75000 美元,這幾乎和低配版特斯拉在美國的售價差不多了。
特斯拉的車要賣的好必須控制成本,Google 的無人車目前還只是處于測試階段,幾百輛的規(guī)模當然可以什么好用用什么,相比于特斯拉幾萬的產銷量,花不了多少錢。
今年 5 月 7 日,美國佛羅里達州的一位特斯拉車主在使用 Autopilot 時發(fā)生車禍,最終不幸生亡。由此還導致給特斯拉提供計算機視覺技術的 Mobileye 創(chuàng)始人 Amnon Shashua 與 Elon Musk 之間的口水戰(zhàn),雙方最終還鬧掰了:Mobileye 宣布在與特斯拉合同結束后不再繼續(xù)合作。
在特斯拉 9 月 11 日發(fā)布的Autopilot 8.0 版本中,特斯拉把毫米波雷達采集到的數據作為了控制系統判斷的主要依據,而不是之前 Mobileye 的攝像頭。
說起 5 月份的車禍,其實在車禍發(fā)生前,特斯拉的毫米波雷達已經感知到有障礙物,但是攝像頭因光線的問題,沒有發(fā)現在藍天白云背景下的大貨車,最后導致車禍發(fā)生。Musk 肯定也知道了攝像頭并不靠譜,所以才在 Autopilot 的新版本中把毫米波雷達的數據作為主要參考依據。
綜上所述,Musk 說「不用激光雷達只用攝像頭,也能實現 Level 4 以上的無人駕駛」更多是出于商業(yè)化方面的考慮。
此舉意在一邊用現有的傳感器收集數據,一邊等激光雷達價格降下來。個人認為,如果固態(tài)激光雷達的價格真能如宣傳中所說下降到 100 美元到 200 美元,為了保證汽車行駛的安全性,Musk 肯定是會用的。
大數據與算法:對于實現無人駕駛哪個更重要?
一年前這個時候,下圖所示的微博引起了網友們的爭論。
一方認為:數據為王,再牛的智能算法也拼不過海量的數據。而另一方則認為:數據只是建材,強大的分析能力才能讓它變成摩天大樓,對效率的追求導致了算法,大數據取代不了算法。
有意思的是,近日 Google 和特斯拉都公布了各自的測試里程數。
據華爾街日報美國當地時間 10 月 5 日報道,Google 宣布自己的無人駕駛汽車剛剛完成 200 萬英里道路行駛里程。而特斯拉創(chuàng)始人 Elon Musk 也于幾天后在個人 Twitter 上宣布:特斯拉 Autopilot 發(fā)布后的 1 年中累計行駛里程已達到 2.22 億英里。
Google 和特斯拉兩方的表態(tài)表面上似乎也印證了微博討論中雙方的觀點:數據為王 VS 算法為王。那實際情況究竟如何?
我們不妨考慮另一個類似的現象:大多數人認為 Google 的搜索比微軟的 Bing 搜索在質量上做得略好一點的原因是 Google 的算法好。
但在前 Google 工程師吳軍博士看來,「這種看法在 2010 年之前是對的,因為那時 Bing 在技術和工程方面明顯落后于 Google。但今天這兩家公司在技術上已經相差無幾了,Google 還能稍稍占優(yōu),很大程度上靠的是數據的力量?!?/div>
與搜索算法尚不成熟的 2000 年不同,今天已經不存在一個未知的方法,僅憑它就能將準確率提高哪怕一個百分點。Google 憑借 PageRank 算法給搜索結果帶來了質的變化,而好的搜索結果能吸引更多的用戶使用 Google 的搜索引擎,這不知不覺間給 Google 提供了大量的點擊數據。
有了這些數據之后,Google 可以訓練出更精確的「點擊模型」,而點擊模型貢獻了今天搜索排序至少 60% 到 80% 的權重,這將吸引更多的用戶,整個過程是一個典型的不斷自我強化的正反饋過程。
在 Google 內部,產品經理們都遵循這樣一個規(guī)則:在沒有數據之前,不要給出任何結論。由此可見,Google 的企業(yè)使命已經融入了員工的日常工作中。Google 正是充分利用了大數據的力量,順利成為了對整張互聯網舉足輕重的樞紐節(jié)點,非常自然地實現了對互聯網的壟斷。
再舉一個例子,9 月 27 日 Google 發(fā)布了新版本的神經機器翻譯系統(Google Neural Machine Translation,GNMT),宣稱該系統的翻譯質量接近人工筆譯。
大多數網友在實際測試過后,表示眼前一亮。與此同時,這也引起了某些翻譯工作者的恐慌:「作為翻譯看到這個新聞的時候,我理解了 18 世紀紡織工人看到蒸汽機時的憂慮與恐懼?!苟@其實也是充分利用大數據的結果。
其實早在 2005 年,Google 的機器翻譯質量就讓全世界從事自然語言處理的人震驚不已了:從來沒有從事過機器翻譯的 Google,在美國國家標準技術研究所(National Institute of Standards and Technology,NIST)的年度測評中遙遙領先。
如下圖所示,在阿拉伯語到英語翻譯的封閉測試集中,Google 系統的 BLUE 評分為 51.31%,領先第二名將近 5%,而提高這 5 個百分點在過去需要研究 5 到 10 年。
Google 究竟是做到的呢?除了 Google 一貫的行事風格——把該領域全世界最好的專家、南加州大學 ISI 實驗室的弗朗茲-奧科(Franz Och)博士挖過來之外,最關鍵的還是 Google 手里握有改進機器翻譯系統所需要的大數據。
機器翻譯專家 Franz Och,供職于人類長壽公司(后來他又轉行到了大數據醫(yī)療領域)
從奧科 2004 年加入 Google 到 2005 年參加 NIST 測試,期間只有一年時間,如此短的時間只夠他將在南加大的系統用 Google 的程序風格重新實現一遍,完全沒有額外的時間做新的研究。而從上圖中我們可以看到,Google 和南加大系統的水平差了 5 到 10 年。
其中的秘密就在于:奧科在 Google 還是用的在南加大使用過的方法,但充分利用了 Google 在數據收集和處理方面的優(yōu)勢,使用了比其他研究機構多上萬倍的數據,訓練出一個機器翻譯的六元模型(一般來講 N 元模型的 N 值不超過 3)。當奧科使用的數據是其他人的上萬倍時,量變的積累導致了質變的發(fā)生,而這就是當今人工智能領域最權威的幾位專家之一杰弗里-辛頓(Geoffrey Hinton)教授所堅持的「多則不同」吧。
值得一提的是,上圖中的排在末位的 SYSTRAN 公司是一家使用語法規(guī)則進行翻譯的企業(yè),在科學家們還沒有想到或者有條件利用統計的方法進行機器翻譯之前,該企業(yè)在機器翻譯領域是最領先的。但現在與那些采用了數據驅動的統計模型的翻譯系統相比,它的翻譯系統就顯得非常落后了。
經過上述分析,對本小結的問題終于可以下一個較安全的結論:在當下的企業(yè)競爭中,相比于算法或數學模型,數據的重要性的確要大得多,即數據為王。
因為前者往往由學術界在幾十年前就已經發(fā)現了,所有企業(yè)都可以加以利用,但是多維度的完備數據并不是每一個企業(yè)都擁有的。
今天很多企業(yè)在產品和服務的競爭,某種程度上已經是數據的競爭了,可以說沒有數據就沒有智能。因為從理論上講,只要能夠找到足夠多的具有代表性的數據,就可以利用概率統計結果找到一個數學模型,使得它和真實情況非常接近,從而節(jié)省了大量人力成本或給予了用戶更愉悅的體驗。
總結
特斯拉已經積累的 2.22 億英里行駛數據,以及未來將要積累的數據,對于他們研發(fā) Level 4 以上的無人駕駛汽車是非常有幫助的,特斯拉可能會最終會先 Google 一步實現量產。
目前出于商業(yè)化的考慮,已量產的特斯拉用「攝像頭 毫米波雷達 超聲波雷達」作為主要傳感器,但是等到低成本的固態(tài)激光雷達性能更穩(wěn)妥。我相信 Musk 肯定是會裝上去的(有網友已經在加州的道路上拍到頭上頂著激光雷達的特斯拉汽車偷偷在做測試了),因為這對于保證實現 99.9999% 的車輛行駛安全性是非常有幫助的。
轉載請注明出處。