如果你相信那些首席執行官們的話語,你就會相信,現在距離一輛完全自動駕駛(full autonomy)汽車實現的時間可能只需幾個月。2015 年,埃隆·馬斯克曾經預測,到 2018 年特斯拉就可以達到完全自動駕駛;谷歌也做出了相似的承諾。Delphi 和 MobileEye 兩家公司也承諾,他們共同研發的 Level 4 自動駕駛系統將于 2019 年實現,而 Nutonomy 公司也計劃在 2019 年,在新加坡街頭部署數千輛無人駕駛出租車。通用汽車的計劃是,在 2019 年讓完全自動駕駛汽車投入生産,而且這台汽車沒有方向盤且完全不需要司機的介入。
這些假設並不是空穴來風,在他們背後已經有了大量的資金注入,就是爲了讓自動駕駛軟件開發的速度趕得上他們所承諾的自動駕駛到來的日子。
從表面上看,我們似乎比以往任何時候都更接近完全自動駕駛實現的日子。Waymo 公司已經在亞利桑那州的公路上測試了自己的自動駕駛汽車——雖然數量有限。特斯拉公司和許多其他效仿者已經賣出了一些功能有限的自動駕駛汽車——雖然還需要在意外情況時司機進行幹預配合。目前開發出來的自動駕駛工具有時也會有一些意外情況出現,有些甚至是致命的,但是依照現在的邏輯,只要系統持續不斷改進,照這個速度發展下去,不久之後就可以達到無需司機進行幹預的自動駕駛水平。
但實現完全自動駕駛汽車的夢想可能比想象的要更遠得多。最近,人工智能專家越來越擔心,我們可能需要數年甚至數十年,才能真正實現可以避免事故的自動駕駛系統。在 AI 自動學習系統應對越來越混亂的現實世界的同時,像紐約大學的加裏·馬庫斯(Gary Marcus)這樣的人工智能專家也不得不一次次將自己對 AI 系統的期望值重新進行調整,這種調整有時被稱爲“人工智能的冬天”。這可能會給那些以自動駕駛車維生的公司帶來災難性的後果,甚至將自動駕駛真正實現的日子推遲整整一代。
自動駕駛汽車就如同一個我們不知道答案的科學實驗
其實,對于爲什麽汽車公司對自動駕駛的前景持樂觀態度,我們很容易理解。在過去的 10 年中,深度學習——一種使用分層機器學習算法從海量數據集中提取結構化信息的方法,已經在人工智能和技術行業中取得了幾乎無法想象的進展。它支持的服務包括了從谷歌搜索到 Facebook 新聞摘要,從語音轉文本輸入到獲得世界圍棋冠軍的阿爾法圍棋系統。除了被應用于互聯網,我們還使用深度學習來檢測地震、預測心髒病,並標記監控相機上的可疑行爲,以及無數本來被認爲是不可能的創新。
但深度學習是建立在大量的訓練數據的基礎上的,這些訓練數據需要包含算法可能遇到的幾乎每個場景。比如說,只要有足夠多的訓練數據來向學習系統展示足夠多的每種動物的樣子,類似谷歌圖像那樣的自動識別系統將會善于識別各種動物。馬庫斯將這種任務描述爲“插值”過程,比如,讓系統對所有被標記爲“山貓”的圖像進行學習,然後讓系統自己來確定,一張新的圖片是否屬于這一組。
雖然工程師可以在數據來源以及數據架構上進行一定的優化,但是對于一個給定的算法這個系統可以學習或識別的程度一定是有一個極限的。比如說,運用某種算法機器只有在學習了成千上萬張山貓的圖片時候才能夠識別出山貓,那麽這台機器即使看到了無數張家貓和美洲虎的照片,並且知道山貓介于這兩者之間,也無法識別出山貓。要想達到這個目的,我們還需要機器用一種新的被稱爲“歸納總結”的算法進行學習,這又是一套不同的技能。
長期以來,研究人員一直認爲他們可以通過正確的算法提高 AI 的概括總結技能,但最近的研究表明,傳統的深度學習在概括總結時比我們想象的要更糟糕。在一項研究中,研究人員將同一只北極熊在不同的、有著微小變化的背景中圖片分別標記爲狒狒、貓鼬或黃鼠狼,卻發現運用傳統的深度學習系統甚至難以對視頻中不同的幀進行歸納總結。由于每個分類都是基于數百個因素的綜合識別的,即使是圖片的微小變化也可以完全改變系統的分類判斷。
圖 | 深度學習網絡對圖片中的微小變化過于敏感
馬庫斯指出,聊天機器人的熱潮實際上是不考慮深度學習在概括總結方面的問題卻被炒熱的例子。“我們在 2015 年說聊天機器人將會實現並有美好的前景”,他說,“但實際上它們並沒有給我們的生活帶來任何實質性的好處,因爲要實現它並不僅僅是收集數據的問題”。當你在網上與一個人交談時,你不僅僅想要他們重新討論之前已經說過的對話。你還希望他們能夠回應你所說的話,利用更廣泛的會話技巧去做出只有對你才會說出的獨有的回應。但是利用深度學習是無法制作出這種聊天機器人的。隨後,一旦最初的宣傳熱潮消退,公司就會對自己的聊天機器人項目失去了信心,而且現在很少有公司仍在對該項目進行積極開發。
這也讓特斯拉和其他自動駕駛公司不得不面對一個可怕的問題:自動駕駛汽車到底會不會不斷變好,然後像圖像搜索、語音識別和其他人工智能那樣成爲一個成功故事?還是他們會像聊天機器人那樣不得不因爲機器學習在概括總結方面的問題而遇到發展瓶頸期?自動駕駛的實現到底是插值問題還是概括總結問題?駕駛真的是無法預測的嗎?
這些答案我們尚無法得知。“自動駕駛汽車就像一個我們不知道答案的科學實驗。”馬庫斯說。我們以前從未能夠實現這個級別的自動駕駛,所以我們不知道它到底是什麽類型的任務。在某種程度上,它的主要任務是識別熟悉的對象和並且根據規則去做出反應,如果是這樣的話,現有技術應該可以讓它完成任務。但馬庫斯擔心,在事故多發的情況下,自動駕駛可能比目前行業裏想要承認的要複雜得多。“道路上會出現人類也意想不到的狀況,對于深度學習來說它將不知所措。”
安全意義重大,不僅僅事關人工智能技術的質量
有時候自動駕駛汽車遇到出乎預料的情況卻無法做出正確反應,我們這裏有一些由于該問題導致的公共事故的報告實驗數據。2016 年的一場致命的車禍中,一輛特斯拉 Model S 汽車全速駛向了一輛白色拖車的後部,主要就是由于自動駕駛系統無法辨別高度較高的拖車與反射的太陽光。今年 3 月份,一名優步自動駕駛汽車發生車禍,原因是汽車撞上了一位在未被官方標識爲人行橫道上出現的推著自行車前行的一名婦女。根據美國國家運輸安全委員會的報告,優步的軟件錯誤地將該女性識別爲一個未知物體、一輛車或一輛自行車,每次重新識別都對路線預測進行更新。在加利福尼亞州的一次撞車事故中,由于一些我們仍不清楚的原因,特斯拉 Model X 在撞擊之前曾突然轉向沖向障礙物並加速前進。
雖然上面所說的每起事故似乎都是邊緣個案,在這些情況下工程師無法提前做出預測。但幾乎所有的車禍都會涉及某種不可預見的情況,如果沒有足夠的歸納總結能力,自動駕駛汽車在面對這些情景中的每一個時,都會認爲這些情況是頭一次遇到。這樣的結果可能是,隨著時間的推移系統遇到的這種邊緣案例越來越多,這些事故也會變得更頻繁。對于持懷疑態度的人來說,之前的一次自動駕駛轉人工駕駛率的報告的已經表明,自動駕駛系統已經進入了瓶頸,之後將很難再繼續像現在這樣向前發展。
前百度高管、業界最傑出的項目主導者之一、Drive.AI 董事會成員吳恩達 (Andrew Ng) 認爲,問題不在于建立一個完美的自動駕駛系統,而在于訓練旁觀者預測自動駕駛汽車行爲。換句話說,我們可以爲汽車提供安全的道路,而不是讓汽車去預測所有的不安全狀況。作爲一個不可預測的案例,如現代系統可以處理自己從未見過的在高速路上走高跷的行人,吳恩達說,“我認爲許多自動駕駛團隊開發的系統可以對在人行橫道上走高跷的用戶做出正確的處理。盡管如此,在高速公路中間的走高跷還是非常危險的。”
吳恩達表示:“我們應該與政府合作,要求人們合法行駛並對自動駕駛有一些寬容性,而不是要非要建立一個可以解決在路上走高跷的人的問題的人工智能系統。安全的意義重大,它不僅僅事關人工智能技術的質量。”
這個問題很難分開處理
AI 技術不僅僅只有深度學習,許多公司正在探索一些深度學習的替代品。盡管這些技術保密森嚴,仍有許多公司將轉向了另一項更早的技術——基于規則的 AI 技術,這項技術使得工程師們通過硬編碼制定特定的規則或邏輯。雖然這項技術沒法讓 AI 通過學習數據來自定義相應行爲,但它卻可以避開一些深度學習技術的局限。不過,鑒于目前自動駕駛的普遍認知仍被深度學習深深地影響著,很難說這些工程師們能否真的徹底突破這些潛在的技術難題。
Ann Miura-Ko 是一名 Lyft 董事會的企業資本家,她認爲有一部分上述的問題對于無人車行業本身而言期望過高,這樣將一概而論地把仍不成熟的自動駕駛直接定義爲失敗。“人們總是期望他們一步登天,這完全不符合新技術上的正常期望,我認爲,每一個微小的優化都是自動駕駛成熟工業化路程上獨特的風景。”
盡管如此,我們仍不知道無人車會深陷在目前困境中多久。半自動駕駛産品——比如特斯拉的 Autopilot 系統,已經有足夠能力來應對大部分自動駕駛的場景了,但它在遇到突發狀況時也仍需要人爲操作來幹預。所以這種情況發生時,我們也很難說是無人車的責任還是駕駛員的責任。這對于某些批判家而言,即便有些故障並不完全是機器或技術的問題,這種半自動駕駛被認爲比人爲駕駛不安全得多。Rand Corporation 的研究表明,只有當無人車在沒有人爲幹預的情況下自動駕駛超過 2.75 億英裏後才可以被認爲是和人爲駕駛一樣安全可靠的。而第一起特斯拉 Autopilot 無人車引起的死亡事故僅僅行駛了 1 .3 億英裏,這遠遠沒達到可靠性標准。
但深度學習已經是汽車探測物體並做出響應的核心技術了,要優化這方面的錯誤率並非看上去那麽簡單。針對今年早期的優步車禍導致行人死亡的事件,杜克大學教授瑪麗·卡明斯(Mary Cummings)表示:“這個問題很難分開處理,識別物體並做出響應是環環相扣的。比如在對行人識別錯誤導致車禍的事件中,系統對于自動識別的誤判什麽事都沒有做,因爲傳感器發出了太多的錯誤警報導致了緊急刹車關閉。”
這起事故最終以優步公司在今年夏天暫停了自動駕駛上的測試而結束,這也是對自動駕駛公司一個不好的預警。在産業界,各大公司都希望通過獲取更多數據來爭相解決這個問題,他們認爲自動駕駛更多的裏程將構建更穩固的系統。但這馬庫斯眼裏卻並非那麽簡單。“他們僅僅只是用現有的技術來期望這個系統能穩固工作,但依靠數據來學習的技術是基于這些數據都是已有事故的數據,而不能達到防範于未然的級別。”