麻省理工學院和微軟開發(fā)的新模型將人類的真實行為與在相同情況下所做的事情進行比較,或者,在實時環(huán)境中觀察AI可以在發(fā)生或之前糾正任何錯誤。其結(jié)果是AI系統(tǒng)將根據(jù)其動作與人類的匹配程度來改變其行為,并確定需要更多理解的情況。
“這個模型幫助自治系統(tǒng)更好地了解他們不知道的東西,”研究作者Ramya Ramakrishnan寫道?!昂芏鄷r候,當部署這些系統(tǒng)時,他們的訓練模擬與現(xiàn)實環(huán)境不匹配,AI他們可能會犯錯誤,例如發(fā)生事故時。我們的想法是利用人類處置特定狀況的方式彌合模擬和現(xiàn)實世界之間的差距,這樣我們就可以減少其中的一些錯誤。“
該模型還沒有為公眾推出做好準備,但是研究人員一直在使用視頻游戲?qū)ζ溥M行測試,其中模擬人對游戲中的角色進行校正。然而,似乎下一個合乎邏輯的步驟是開始將它與真正的自動駕駛汽車及其測試系統(tǒng)一起使用。
本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。