鉅大LARGE | 點(diǎn)擊量:700次 | 2018年09月11日
自動(dòng)駕駛汽車功能真的不像宣傳的那么強(qiáng)大?
懷疑論者表示,完全自動(dòng)駕駛可能比想象的更遙不可及,只是業(yè)界不愿承認(rèn)罷了。
如果你真相信首席執(zhí)行官們說的話,完全自動(dòng)駕駛的汽車可能再過幾個(gè)月就會(huì)問世。2015年,埃隆?馬斯克預(yù)測(cè)到2018年完全自動(dòng)駕駛的特斯拉會(huì)面市;谷歌也是如此。Delphi和MobileEye的L4系統(tǒng)目前定于2019年推出,同年Nutonomy計(jì)劃在新加坡的街道上部署數(shù)千輛無人駕駛的出租車。通用汽車(GM)將在2019年量產(chǎn)完全自動(dòng)駕駛的汽車,沒有方向盤,駕駛員也無法干預(yù)。這些預(yù)測(cè)背后都有真金實(shí)銀在支撐,豪賭軟件能夠不辱使命,功能像宣傳的那么強(qiáng)大。
乍一看,完全自動(dòng)駕駛似乎比以往任何時(shí)候都更觸手可及。Waymo已經(jīng)在亞利桑那州一些有限但公開的道路上測(cè)試汽車。特斯拉及其他眾多模仿者已經(jīng)在出售功能有限的自動(dòng)駕駛系統(tǒng)(Autopilot),一旦發(fā)生任何意外情況,依賴駕駛員干預(yù)。已發(fā)生過幾起事故(有些還是致命的);但業(yè)界普遍認(rèn)為,只要系統(tǒng)不斷改進(jìn),我們離根本不必有人干預(yù)不會(huì)太遠(yuǎn)。
但是完全自動(dòng)駕駛汽車這個(gè)夢(mèng)想可能比我們想象的更遙不可及。AI專家們?cè)絹碓綋?dān)心,自動(dòng)駕駛系統(tǒng)能可靠地避免事故至少還要再過幾年,甚至再過幾十年。由于自我訓(xùn)練的系統(tǒng)很難應(yīng)對(duì)現(xiàn)實(shí)世界的混亂局面,像紐約大學(xué)的加里?馬庫斯(GaryMarcus)這些專家準(zhǔn)備好了對(duì)預(yù)期進(jìn)行一番痛苦的重新調(diào)整,這番糾正有時(shí)被稱為“AI寒冬”。這種延遲可能給依賴自動(dòng)駕駛技術(shù)的公司帶來災(zāi)難性后果,讓整整一代人體驗(yàn)不到完全自動(dòng)駕駛。
不難理解為什么汽車公司對(duì)自動(dòng)駕駛持態(tài)度樂觀。在過去的十年間,深度學(xué)習(xí)已經(jīng)在AI和技術(shù)行業(yè)帶來了幾乎無法想象的進(jìn)展;深度學(xué)習(xí)這種方法使用層次化的機(jī)器學(xué)習(xí)算法,從海量數(shù)據(jù)集中提取結(jié)構(gòu)化信息。深度學(xué)習(xí)支持谷歌搜索、Facebook新聞源(NewsFeed)、對(duì)話式語音/文本轉(zhuǎn)換算法以及會(huì)下圍棋的系統(tǒng)。在互聯(lián)網(wǎng)之外,我們使用深度學(xué)習(xí)來檢測(cè)地震、預(yù)測(cè)心臟病并標(biāo)記拍攝鏡頭中的可疑行為,還有另外無數(shù)原本不可能實(shí)現(xiàn)的創(chuàng)新。
充電溫度:0~45℃
-放電溫度:-40~+55℃
-40℃最大放電倍率:1C
-40℃ 0.5放電容量保持率≥70%
但深度學(xué)習(xí)需要大量的訓(xùn)練數(shù)據(jù)才能發(fā)揮作用,包含算法會(huì)遇到的幾乎每一個(gè)場(chǎng)景。比如說,GoogleImages等系統(tǒng)擅長(zhǎng)識(shí)別動(dòng)物,只要有訓(xùn)練數(shù)據(jù)給它們展示每種動(dòng)物長(zhǎng)的樣子。馬庫斯將這種任務(wù)稱之為“內(nèi)插”(interpolation),對(duì)所有標(biāo)記為“豹貓”的圖像進(jìn)行調(diào)查,從而確定新圖片是否屬于豹貓這一類。
工程師們可能在數(shù)據(jù)來自何處以及如何組織數(shù)據(jù)方面另辟蹊徑,但這對(duì)某種算法能覆蓋多廣的范圍施加了嚴(yán)格的限制。同樣的算法無法識(shí)別豹貓,除非它見過成千上萬張豹貓的照片――即使它見過家貓和美洲虎的照片,并且知道豹貓介于這兩種動(dòng)物之間。這個(gè)過程名為“泛化”(generalizaTIon),需要一套不同的技能。
長(zhǎng)期以來,研究人員認(rèn)為自己可以借助合適的算法改進(jìn)泛化技能,但最近的研究表明,傳統(tǒng)深度學(xué)習(xí)在泛化方面比我們想象的還要糟糕。一項(xiàng)研究發(fā)現(xiàn),傳統(tǒng)深度學(xué)習(xí)系統(tǒng)面對(duì)一段視頻的不同幀時(shí),甚至難以泛化,只要視頻背景出現(xiàn)小小的變化,就會(huì)將同一只北極熊標(biāo)記為狒狒、貓鼬或黃鼠狼。由于每個(gè)分類基于總共幾百個(gè)因素,照片哪怕小小的變化也可能完全改變系統(tǒng)的判斷,其他研究人員已在對(duì)抗數(shù)據(jù)集中利用了這一點(diǎn)。
馬庫斯提到聊天機(jī)器人熱潮就是炒作遭遇泛化問題的最新例子。他說:“2015年有廠商向我們承諾推出聊天機(jī)器人,但它們沒有任何好處,因?yàn)檫@不僅僅是收集數(shù)據(jù)的問題。”你在網(wǎng)上與某人交談時(shí),不僅僅想要對(duì)方復(fù)述之前的談話。你希望對(duì)方回應(yīng)你說的話,利用更廣泛的對(duì)話技能作出專門針對(duì)你的回應(yīng)。深度學(xué)習(xí)根本搞不出這樣的聊天機(jī)器人。一旦最初的炒作退潮,許多公司對(duì)聊天機(jī)器人項(xiàng)目失去了信心,現(xiàn)在只有個(gè)別公司還在積極開發(fā)中。
這讓特斯拉及其他自動(dòng)駕駛公司面臨一個(gè)可怕的問題:自動(dòng)駕駛汽車會(huì)像圖像搜索、語音識(shí)別及其他AI成功故事那樣變得越來越好?還是會(huì)像聊天機(jī)器人那樣遇到泛化問題?自動(dòng)駕駛是一個(gè)內(nèi)插問題還是泛化問題?駕駛多么難以預(yù)測(cè)?
標(biāo)稱電壓:28.8V
標(biāo)稱容量:34.3Ah
電池尺寸:(92.75±0.5)* (211±0.3)* (281±0.3)mm
應(yīng)用領(lǐng)域:勘探測(cè)繪、無人設(shè)備
現(xiàn)在要知道結(jié)果還為時(shí)過早。馬庫斯說:“無人駕駛汽車就像我們不知道答案的科學(xué)實(shí)驗(yàn)?!蔽覀冎皬膩頉]有實(shí)現(xiàn)過這個(gè)級(jí)別的自動(dòng)駕駛,所以我們不知道它是哪種類型的任務(wù)。如果只是識(shí)別熟悉的對(duì)象和遵守規(guī)則,那么現(xiàn)有技術(shù)應(yīng)該能勝任任務(wù)。不過馬庫斯擔(dān)心,在事故多發(fā)的場(chǎng)景下安全駕駛可能比想象的來得復(fù)雜,只是業(yè)界不想承認(rèn)罷了?!爸灰钊梭@訝的新狀況出現(xiàn),那么這對(duì)于深度學(xué)習(xí)來說不是一件好事?!?/p>
我們已有的實(shí)驗(yàn)數(shù)據(jù)來自公共事故報(bào)告,每一份報(bào)告都提出了某個(gè)不同尋常的難題。在2016年的一場(chǎng)致命車禍中,一輛特斯拉ModelS全速撞上了一輛白色牽引式掛車的尾部,原因是很高的掛車底盤和刺眼的陽光反射讓車子備感困惑。3月份,一輛自動(dòng)駕駛的優(yōu)步汽車撞死了一名推著自行車的女子,當(dāng)時(shí)這名女子正穿過一條未經(jīng)授權(quán)的人行橫道。據(jù)美國國家運(yùn)輸安全委員會(huì)(NTSB)的報(bào)告顯示,優(yōu)步的軟件將這名女子誤識(shí)別成不明物體,然后誤識(shí)別成汽車,最后誤識(shí)別成自行車,每次都更新預(yù)測(cè)。在加利福尼亞州的一次撞車事故中,一輛ModelX在撞擊前一刻加速駛向障礙物,至今原因仍然不明。
每次事故似乎都是極端情況,這是無法要求工程師們提前預(yù)測(cè)的那種情況。但幾乎每一起車禍都涉及某種不可預(yù)見的場(chǎng)景;如果沒有泛化的能力,自動(dòng)駕駛汽車將不得不面對(duì)這每一個(gè)場(chǎng)景,就好像這是頭一次。結(jié)果就是一連串僥幸事故:隨著時(shí)間的推移,這些事故并不變得不那么常見或不那么危險(xiǎn)。對(duì)于懷疑論者來說,手動(dòng)脫離報(bào)告已表明了這種情形,已經(jīng)到了止步不前的窘境。
吳恩達(dá)是百度前高管,Drive.AI的董事會(huì)成員,也是業(yè)界最著名的推手之一。他認(rèn)為,問題不在于建造一套完美的駕駛系統(tǒng),而是培訓(xùn)旁觀者來預(yù)測(cè)自動(dòng)駕駛行為。換句話說,我們可以為汽車確保道路安全,而不是反過來。作為一種不可預(yù)測(cè)的情況,我詢問他是否認(rèn)為現(xiàn)代系統(tǒng)可以應(yīng)對(duì)踩彈簧單高蹺的行人,即使之前從來沒有見過。吳恩達(dá)告訴我:“我認(rèn)為許多AI團(tuán)隊(duì)可以應(yīng)對(duì)人行橫道上踩著彈簧單高蹺的行人。話雖如此,在高速公路中央踩彈簧單高蹺確實(shí)很危險(xiǎn)?!?/p>
吳恩達(dá)說:“我們應(yīng)該與政府合作,要求人們遵紀(jì)守法、為他人考慮,而不是設(shè)計(jì)解決彈簧單高蹺問題的AI。安全不僅僅與AI技術(shù)的質(zhì)量有關(guān)?!?/p>
深度學(xué)習(xí)不是唯一的AI技術(shù),許多公司已經(jīng)在探究替代方案。雖然技術(shù)在業(yè)內(nèi)受到嚴(yán)加保護(hù)(只要看看Waymo最近起訴優(yōu)步的官司),但許多公司已轉(zhuǎn)向基于規(guī)則的AI,這種較古老的技術(shù)讓工程師們可以將特定的行為或邏輯硬編碼到其他方面自主的系統(tǒng)中。它并不具備僅僅研究數(shù)據(jù)就可以為自己行為編程的同樣能力,這正是深度學(xué)習(xí)如此令人興奮的原因,但它讓公司可以避免深度學(xué)習(xí)的一些局限性。但由于感知的基本任務(wù)仍然受到深度學(xué)習(xí)技術(shù)的深遠(yuǎn)影響,很難說工程師們隔離潛在的錯(cuò)誤會(huì)多成功。
身為L(zhǎng)yft董事會(huì)成員的風(fēng)險(xiǎn)資本家安妮?三浦康(AnnMiura-Ko)表示,她認(rèn)為問題的一方面在于對(duì)自動(dòng)駕駛汽車本身寄予厚望,將完全自動(dòng)駕駛之外的任何系統(tǒng)都?xì)w入為失敗。三浦康說:“期望自動(dòng)駕駛汽車從零進(jìn)入到L5是期望不匹配,而不是技術(shù)失敗。我認(rèn)為所有這些微小改進(jìn)都是邁向完全自動(dòng)駕駛這條道路上的非凡成就?!?/p>
不過,目前不清楚自動(dòng)駕駛汽車在目前這種窘境下保持多久。像特斯拉的自動(dòng)駕駛系統(tǒng)這樣的半自動(dòng)產(chǎn)品智能化程度很高,足以應(yīng)對(duì)大多數(shù)情形,但是如果發(fā)生任何不可預(yù)測(cè)的情況,還是需要人為干預(yù)。果真出岔子時(shí),很難知道究竟怪汽車還是怪駕駛員。對(duì)于一些評(píng)論人士來說,這種人機(jī)混合體可能不如人類駕駛員來得安全,即使錯(cuò)誤很難完全歸咎于機(jī)器。蘭德公司的一項(xiàng)研究估計(jì),自動(dòng)駕駛汽車必須在沒有一起死亡事故的情況下行駛2.75億英里,才能證明它們和人類駕駛員一樣安全。與特斯拉的自動(dòng)駕駛系統(tǒng)相有關(guān)的首例死亡事件發(fā)生在該項(xiàng)目行駛了約1.3億英里處,遠(yuǎn)低于這個(gè)標(biāo)準(zhǔn)。
但由于深度學(xué)習(xí)是汽車如何識(shí)別物體并決定應(yīng)對(duì)的關(guān)鍵,降低事故率可能比看起來更難。杜克大學(xué)教授瑪麗?卡明斯(MaryCummings)提到今年早些時(shí)候?qū)е乱幻腥怂劳龅膬?yōu)步事故時(shí)說:“這不是一個(gè)很容易被隔離的問題。感知-決策周期常常相互關(guān)聯(lián),就像撞死行人的事故中那樣。由于感知方面存在模糊性,做出了什么操作都不采取的決定;又由于從傳感器得到了太多的誤警報(bào),緊急制動(dòng)系統(tǒng)被關(guān)閉?!?/p>
那起車禍?zhǔn)鹿室詢?yōu)步暫停夏季的自動(dòng)駕駛測(cè)試工作收?qǐng)觯@對(duì)于計(jì)劃推廣測(cè)試的其他公司來說是不祥之兆。在這個(gè)行業(yè),許多公司競(jìng)相獲取更多的數(shù)據(jù)來解決問題,以為行駛里程最多的公司會(huì)構(gòu)建最強(qiáng)大的系統(tǒng)。但是雖然許多公司覺得只是數(shù)據(jù)問題,馬庫斯卻認(rèn)為解決起來困難得多。馬庫斯說:“它們只是使用擁有的技術(shù),希望它會(huì)起作用。它們依賴大數(shù)據(jù),因?yàn)檫@是他們手頭擁有的利器,但沒有任何證據(jù)表明它讓你可以達(dá)到我們所需的那種精確度?!?/p>