首先,關(guān)于人工智能(AI)的幾個觀點:它是一個錯誤的名稱!AI既不是人工,也不是智能。如果沒有大量人為的訓(xùn)練,AI無法識別事物。在識別、理解和分類物體或場景方面,AI表現(xiàn)出與人類完全不同的邏輯。標(biāo)簽意味著AI類似于人類智能 ……
其實,不是這樣的。
AI往往缺乏任何常識,很容易被欺騙或破壞,并可能以意外和不可預(yù)測的方式失敗。換句話說,需要謹(jǐn)慎行事。
本文探討了AI技術(shù)是如何影響汽車行業(yè)的。我們將考慮以下這些問題。
AI如何解決一個問題?
AI在汽車中的優(yōu)勢和缺點是什么?
在汽車中使用AI的獨特挑戰(zhàn)是什么?
哪些汽車電子領(lǐng)域正在使用AI?
哪些未來的汽車電子領(lǐng)域?qū)⒁蕾嘇I技術(shù)?
AI的開發(fā)分三個階段:建立AI模型,使用相關(guān)數(shù)據(jù)訓(xùn)練AI模型,最后是使用訓(xùn)練好的模型來解決問題,即推理階段。
大多數(shù)AI模型是基于多種類型的神經(jīng)網(wǎng)絡(luò)和學(xué)習(xí)網(wǎng)絡(luò)。例如CNN(Convolutional Neural Networks)、GAN(Generative Adversarial Networks)、DRL(Deep Reinforced Learning)、Federated Learning、Transfer Learning和其他。每一種都有不同的優(yōu)缺點,所有類型都在迅速發(fā)展。
下表總結(jié)了AI技術(shù)的優(yōu)缺點,以及安全考量和擬議的法規(guī)。
AI的優(yōu)勢
AI主要用于解決復(fù)雜問題。由于汽車行業(yè)存在很多難題,AI在推動汽車技術(shù)發(fā)展方面發(fā)揮著越來越大的作用。自動駕駛汽車的前景主要取決于新的AI技術(shù)。人們似乎一致認(rèn)為,神經(jīng)網(wǎng)絡(luò)的發(fā)展是未來AV部署成功的主要途徑。
好消息是,AI,尤其是神經(jīng)網(wǎng)絡(luò)技術(shù)還處于早期研發(fā)階段,這意味著突破性創(chuàng)新未來可期。隨著全球范圍內(nèi)在持續(xù)加碼對AI的投資,可以肯定的是,AI和神經(jīng)網(wǎng)絡(luò)將解決更多的復(fù)雜問題,包括汽車行業(yè)的挑戰(zhàn)。
AI的缺點開發(fā)和部署AI技術(shù)的挑戰(zhàn)之一是對神經(jīng)網(wǎng)絡(luò)的充分訓(xùn)練。一般來說,問題越復(fù)雜,神經(jīng)網(wǎng)絡(luò)模型就越復(fù)雜。這意味著需要大型模型。訓(xùn)練需要大量的資源和專業(yè)知識來設(shè)計和測試AI模型,依靠大型數(shù)據(jù)集來驗證模型的性能。
AI模型需要廣泛的訓(xùn)練,這意味著需要大型數(shù)據(jù)庫。更大的訓(xùn)練數(shù)據(jù)集正在變得可用,但訓(xùn)練仍然是一項耗時而昂貴的任務(wù)。大多數(shù)訓(xùn)練數(shù)據(jù)也必須由人類來標(biāo)注,以使AI模型可以學(xué)習(xí)并變得成熟。而越來越多的人也在擔(dān)心,偏見(bias)的問題也在悄悄地進(jìn)入訓(xùn)練數(shù)據(jù)。
然后是黑箱問題:仍然很難確定AI模型如何做出決定。這種模糊性對自動駕駛系統(tǒng)來說仍然是一個大問題,需要更好的解決方案。
另一個問題涉及模型對微小數(shù)據(jù)變化的敏感性。這種脆弱性造成了安全隱患,包括黑掉自動駕駛系統(tǒng)的可能性,以及由此對AV安全造成的威脅。缺乏AI專業(yè)知識是汽車和其他行業(yè)的另一個大缺點,這一技能差距不可能很快得到彌補。
解決問題的推理階段也有弊端。大型模型,特別是用于AV的模型,需要巨大的計算資源來壓縮傳感器數(shù)據(jù)并支持復(fù)雜的軟件。這些資源也需要功耗,而功耗在汽車應(yīng)用中總是有限的。
新興技術(shù)將提高能力并降低推理成本,包括新興的AI芯片技術(shù)、激光雷達(dá)的價格下降和傳感器性能的提高。
推理的最大缺點是黑箱問題,即AI的可解釋性。AI系統(tǒng)仍然無法解釋他們是如何做出決定的,這就造成了一系列AI的信任問題。對于汽車應(yīng)用來說,這是不能接受的。
AI的安全性
汽車AI對安全的要求比其他消費領(lǐng)域高得多。因此,必須更加重視AI的安全和研發(fā)。為此,Georgetown大學(xué)的CSET(Center for Security and Emerging Technology)發(fā)布了一份開創(chuàng)性的報告,研究AI的意外后果和潛在影響。
CSET的報告確定了AI故障的三種基本類型:魯棒性、規(guī)范性和保證性故障。魯棒性故障是指AI系統(tǒng)收到異?;蛞馔獾妮斎?,導(dǎo)致系統(tǒng)故障。在規(guī)范性故障中,AI系統(tǒng)試圖實現(xiàn)與設(shè)計者意圖有細(xì)微差別的東西,導(dǎo)致意外的行為或副作用。保證性故障意味著AI系統(tǒng)在運行過程中不能被充分監(jiān)控或控制。
這份報告還列舉了AI意外崩潰的例子,并建議采取行動降低風(fēng)險,同時使AI工具更加可信。
可解釋的人工智能,即XAI(Explainable AI),是一種緩解黑箱效應(yīng)的方法,可以更好地理解哪些數(shù)據(jù)是需要用來提高模型的準(zhǔn)確性。由國防部高級研究計劃局贊助的XAI研究旨在開發(fā)機器學(xué)習(xí)技術(shù),產(chǎn)生更多可解釋的模型,同時保持高水平的學(xué)習(xí)性能和準(zhǔn)確性。XAI還將使人類用戶能夠理解、信任和管理AI模型。XAI還可以描述自己的能力,并提供對其未來行為的洞察。
AI法規(guī)
AI和GDPR(General Data Protection)是緊密相連的。GDPR影響了歐洲和其他地區(qū)的AI發(fā)展。該法規(guī)明確涵蓋了自動化、個人決策和剖析。該規(guī)則保護(hù)消費者免受兩者的法律后果。在這種情況下,自動化、個人決策包括AI平臺在沒有任何人工干預(yù)的情況下做出的決定。剖析是指對個人數(shù)據(jù)的自動處理,以評估個人。
對于汽車應(yīng)用,這主要影響到內(nèi)容交付系統(tǒng)和用戶界面。
歐盟正在準(zhǔn)備一項類似于GDPR的AI法規(guī),這項新規(guī)則可能會像GDPR一樣產(chǎn)生廣泛影響。今年4月,一份代表監(jiān)管AI的法律框架的提案草案發(fā)布。
歐盟的提案旨在識別高風(fēng)險的AI技術(shù)及其應(yīng)用,這些技術(shù)針對的是可能危及公民安全的交通等關(guān)鍵基礎(chǔ)設(shè)施。這意味著AV將成為AI監(jiān)管的目標(biāo)。
根據(jù)歐盟提議的AI立法,罰款最高可達(dá)3000萬歐元,或公司全球營收的6%,以較高額度為準(zhǔn)。GDPR下的最高罰款為2000萬歐元,或全球營收的4%。
汽車領(lǐng)域的AI
下表總結(jié)了與汽車電子結(jié)合的AI技術(shù)。不包括用于汽車制造、供應(yīng)鏈管理、質(zhì)量控制、營銷和類似功能的AI,盡管在這些領(lǐng)域AI正在做出重大貢獻(xiàn)。
由神經(jīng)網(wǎng)絡(luò)產(chǎn)生的決策必須是可以理解的。如果不這樣,就很難理解它們是如何工作的,也很難去糾正錯誤或偏見。
神經(jīng)網(wǎng)絡(luò)的決策也必須是穩(wěn)定的。也就是說,盡管視覺數(shù)據(jù)有微小的差異,但仍然要保持穩(wěn)定。這對AV來說尤其重要。例如,停車牌上貼上黑白膠帶就能讓基于AI的視覺系統(tǒng)失效。這是一個無法接受的例子。
AV應(yīng)用需要更好的技術(shù)來理解邊緣案例或以前的軟件行駛訓(xùn)練沒有經(jīng)歷過的新的案例。這仍然是大量部署AV系統(tǒng)的一個關(guān)鍵制約因素。
目前AI的用例
語音識別和用戶界面一直是汽車領(lǐng)域最成功的基于AI的應(yīng)用。這些應(yīng)用利用智能手機和消費類電子產(chǎn)品中的AI技術(shù),部署在信息娛樂和HMI中。Alexa、CarPlay、Android Auto和類似產(chǎn)品已經(jīng)被使用在大多數(shù)新車型中。
遠(yuǎn)程診斷是一個領(lǐng)先的遠(yuǎn)程信息技術(shù)應(yīng)用。例如,AI技術(shù)的加入可以幫助預(yù)測未來的設(shè)備故障。
基于AI的視覺系統(tǒng)被用于配備ADAS汽車的DMS。隨著AI技術(shù)的進(jìn)步,DMS將出現(xiàn)快速增長。
許多ADAS功能也使用AI技術(shù),包括ACC到各種類型的自動泊車功能。L1和L2的汽車將在新車型中使用越來越多的AI技術(shù)。
新興的AI用例
多家車廠正在搭載有限的駕駛巡航功能。它們通常被稱為L2+,但目前的標(biāo)準(zhǔn)中不包括這個術(shù)語。稱它們?yōu)椤癆utopilot”是錯誤的,因為它讓消費者混淆概念,錯認(rèn)為比現(xiàn)有的能力更強。而且它們已經(jīng)造成了許多事故。
L3車輛發(fā)布已經(jīng)有幾年了,但由于監(jiān)管限制,部署也受到了限制。允許L3的法規(guī)正在出現(xiàn),L3車輛使用了很多AI技術(shù)。
OTA軟件和網(wǎng)絡(luò)安全功能都在通過嵌入式軟件客戶端以及基于云的服務(wù)和分析軟件增加AI技術(shù)的使用。
一個新興的AI應(yīng)用是AV的開發(fā)和測試。大約有5000輛AV處于測試和驗證階段,主要是在中國和美國,其中包括自動駕駛運貨車、自動駕駛卡車、Robotaxi和固定路線的AV。
未來的AI用例
AV領(lǐng)域是AI技術(shù)最有價值和最難的應(yīng)用。行業(yè)目標(biāo)是實現(xiàn)一個比最好的人類司機更好的軟件駕駛程序,同時又沒有人類行為的那些缺點。
基于AI技術(shù)的軟件開發(fā)已經(jīng)成熟。識別和修復(fù)軟件錯誤有可能在未來十年通過創(chuàng)新的AI技術(shù)產(chǎn)生。
AI技術(shù)帶來的網(wǎng)絡(luò)安全進(jìn)步也許是汽車和其他行業(yè)最迫切的需求。這些領(lǐng)域正吸引著大量、持續(xù)的投資。
底線
AI技術(shù)已經(jīng)成為汽車行業(yè)的主要驅(qū)動力。到目前為止,有兩家公司在AI技術(shù)方面處于領(lǐng)先地位,Nvidia和Tesla。在為創(chuàng)建和使用AI模型提供芯片和軟件標(biāo)準(zhǔn)方面,顯然Nvidia是領(lǐng)導(dǎo)者。Tesla正在穩(wěn)步在其Autopilot中部署AI。
與此同時,還有許多公司專注于汽車AI:Mobileye是ADAS領(lǐng)域的領(lǐng)導(dǎo)者,也正在野心勃勃地布局AV,Waymo當(dāng)然也在其中。
隨著人們對安全隱患擔(dān)憂的增加,AI開發(fā)者必須注意這些變化的跡象,以免意外事故扼殺技術(shù)創(chuàng)新。排名首位的是解開AI的黑箱,因為這限制了信任系統(tǒng)的部署。在其他方面,訓(xùn)練數(shù)據(jù)的偏見問題是一個日益嚴(yán)重的問題,難以評估,因此也很難解決。
歐盟正在制定AI相關(guān)的法規(guī),其他地區(qū)也會跟進(jìn)。
在可預(yù)見的未來,AI開發(fā)者在建立安全、強大的自動駕駛系統(tǒng)時必須謹(jǐn)慎行事。
[參考文章]
AI in Automotive: Current and Future Impact — Egil Juliussen