《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 其他 > 業(yè)界動態(tài) > 自動駕駛要懂多少常識才能上路?

自動駕駛要懂多少常識才能上路?

2018-04-13
關(guān)鍵詞: 自動化 自動駕駛 人工智能

  想要準(zhǔn)確定義我們所說的常識可能有點難。常識可以基于某種文化,比如生活在某一地區(qū)的人都知道這種花有毒,而你作為游客卻不知道;常識也會隨著時間而變化,一百年前人們會說某事是常識,但是現(xiàn)代人可能根本就不知道。

  常識可以通過學(xué)習(xí)獲得嗎?有些人說,人們并沒有專門去學(xué)習(xí)常識,我們會在不經(jīng)意間獲得常識。這表明我們不需要了解世界上所有事,也同樣可以歸納出一些規(guī)律。

  人工智能是不是缺乏常識的書呆子?

  我們的社會似乎接受這樣一個觀點,即高智商的人缺乏生活常識(你可能會認(rèn)為《生活大爆炸》中的謝爾頓便是一個典型的例子)。但即使是那些高智商的人也仍然會知道一些常識,畢竟他們在現(xiàn)實世界中也過得很好。

  出于開發(fā)人工智能的需要,我們需要弄明白“智能”的含義,因為我們正在嘗試開發(fā)一種可以學(xué)習(xí)常識的自動化系統(tǒng)。

  如果說常識是智力的一部分,那么在創(chuàng)建人工智能系統(tǒng)的時候,我們也會希望它懂得一些常識。如果這個系統(tǒng)不懂任何常識,那么我們開發(fā)的產(chǎn)品就達(dá)不到預(yù)期的智能水平,而這個系統(tǒng)也稱不上是真正的“智能”系統(tǒng)。

  然而目前來看,大多數(shù)人工智能系統(tǒng)都缺乏常識。

  自動駕駛需要常識推理嗎?

  在自動駕駛理論控制研究所,我們正在開發(fā)自動駕駛汽車的人工智能系統(tǒng),并探索將常識推理嵌入到系統(tǒng)里。

  現(xiàn)有自動駕駛汽車的智能系統(tǒng)并沒有什么常識推理能力。相反,它們是專門用于駕駛的系統(tǒng),并且還聲稱駕駛不需要常識。關(guān)于這一點人們一直爭論不斷。

  因此,我們有以下選擇:

  對于人工智能自動駕駛汽車來說,根本不需要常識。

  對于人工智能自動駕駛汽車來說,常識是一種可有可無的東西,但這并不是必需品。

  常識是人工智能自動駕駛汽車的必需品。

  如果你認(rèn)為人工智能自動駕駛汽車根本不需要常識,你和許多人工智能開發(fā)者的看法是一樣的。

  如果你認(rèn)為常識是人工智能自動駕駛汽車的必備之物,那么你可能會擔(dān)心,人們現(xiàn)在幾乎沒有做出什么努力將常識內(nèi)置到自動駕駛汽車的智能系統(tǒng)中。

  自動駕駛要懂多少常識才能上路?

  有人說,90%的駕駛?cè)蝿?wù)不需要常識,需要使用常識的情況只有微不足道的10%。然而,如果你上路行駛的自動駕駛汽車錯過了那10%的常識,我認(rèn)為你會對最終結(jié)果感到失望。

  這意味著搭載智能系統(tǒng)的自動駕駛汽車可能無法完成所有任務(wù)。我意識到有些人可能會說專業(yè)知識占比99%,常識也許占比1%,但即使這樣,這仍然是值得你注意的事情。

  經(jīng)驗豐富的人工智能研究開發(fā)人員認(rèn)為,常識推理的能力早就被遺忘了。要實現(xiàn)讓人工智能具有一個常識性的推理能力需要350年的時間,這需要人們堅持不懈的努力,而這種努力在短時間內(nèi)不會獲得豐厚的回報。

  有些人會說,我們不要試圖找到所有規(guī)則并將它們編入一個系統(tǒng),我們要用機器學(xué)習(xí)來訓(xùn)練常識推理能力。如果你用人工神經(jīng)網(wǎng)絡(luò)對數(shù)據(jù)進行模式化,那么它可能會找到那些隱藏在數(shù)據(jù)中的常識推理規(guī)律。

  也許孩子們并沒有按照個人的規(guī)則來學(xué)習(xí)常識,相反,他們的大腦會看到周圍的世界,通過神經(jīng)元模式,他們會得到常識。這可能是因為我們錯誤地把這些規(guī)則變成了單獨的規(guī)則,僅僅因為我們更容易從邏輯上解釋正在發(fā)生的事情,但事實上,它可能是對實際正在發(fā)生事件的一種誤導(dǎo)。

  需要常識推理的場景設(shè)想

  舉例來說,當(dāng)我行駛在高速公路時,看見前方裝滿垃圾的皮卡車沒有被遮蓋,任由風(fēng)吹來吹去,我用常識判斷:卡車上的垃圾有可能會飛出來。為了避免安全隱患,我及時選擇變道行駛。果然,過了一會,我看見滿載垃圾的卡車顛簸了一下,垃圾碎片散落一地,后方車輛緊急變道。

  據(jù)推測,目前的無人駕駛汽車會像其他司機一樣,只有當(dāng)垃圾掉落在路面時才會做出反應(yīng)。我們是否會期待有一輛人工智能汽車可以提前感知前方的安全隱患,提醒我們變道呢?

  要想讓智能系統(tǒng)具備這種預(yù)測能力,前提在于它經(jīng)歷過類似的情況。當(dāng)然,我們也需要考慮到,從一個案例中所學(xué)到的東西沒有被過度概括。

  還記得那個被一只小白狗嚇到,從此就害怕任何白色動物的孩子嗎?我們需要考慮一下,人工智能如何能夠運用常識推理來理解真實的情形,而不是對所有拖著垃圾的卡車過于小心翼翼。

  常識不是一件容易的事,把常識推理融入到人工智能自動駕駛汽車中也是一個相當(dāng)難解決的問題。盡管關(guān)于常識在自動駕駛汽車中是否必要的爭論還未停止,但最安全的建議是,人工智能自動駕駛汽車仍然需要常識推理。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。