《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 解決方案 > 未來挑戰(zhàn):確保人工智能的安全

未來挑戰(zhàn):確保人工智能的安全

2021-05-26
作者:Andres Barrilado
來源:恩智浦
關(guān)鍵詞: 恩智浦 人工智能 安全

1.jpg

隨著人工智能及其在未來扮演的角色成為社會(huì)討論的焦點(diǎn),恩智浦也在探索一個(gè)關(guān)鍵問題:如何從開發(fā)流程著手,確保人工智能和機(jī)器學(xué)習(xí)的安全

在恩智浦,我們會(huì)按照客戶提出的正式要求,為硬件開發(fā)相應(yīng)的功能。為了滿足客戶的要求,我們首先列出一些已知的輸入信息,也就是用例。用例可能是雷達(dá)傳感器在汽車中的位置(面朝前方或角落)、電動(dòng)汽車電池的工作電壓、汽車駕駛艙內(nèi)的屏幕數(shù)量等。然后,我們?cè)俣x設(shè)計(jì),驗(yàn)證功能是否按照預(yù)期方式工作,而且我們不僅在模擬環(huán)境中驗(yàn)證,還在實(shí)地環(huán)境中驗(yàn)證。在實(shí)地環(huán)境中,因?yàn)闊o法控制功能實(shí)際接收到的輸入,所以要在選定的用例范圍內(nèi),將功能設(shè)計(jì)得盡可能穩(wěn)定可靠。

2.jpg

但對(duì)于人工智能而言,這個(gè)開發(fā)過程會(huì)有一點(diǎn)變化。我們?nèi)匀粫?huì)定義用例,但還要為每個(gè)用例分配明確定義的輸出。我們會(huì)將這個(gè)任務(wù)交給計(jì)算機(jī)完成,然后再定義功能。從示例中學(xué)習(xí)的過程可稱為訓(xùn)練,我們要教計(jì)算機(jī)做出我們需要的響應(yīng)。

一旦對(duì)計(jì)算機(jī)進(jìn)行了用例訓(xùn)練,即可將這些知識(shí)轉(zhuǎn)移到設(shè)備,讓設(shè)備將知識(shí)應(yīng)用于實(shí)地環(huán)境,更好地處理難以預(yù)知的數(shù)據(jù),這個(gè)過程就稱為推理。它與非人工智能流程的關(guān)鍵差別在于,在人工智能的開發(fā)中,工程師不一定像過去那樣理解功能本身。

3.jpg

因此我們必須進(jìn)行評(píng)估,調(diào)節(jié)機(jī)器的行為,直至輸出的結(jié)果符合我們最初的預(yù)期。對(duì)于需要高計(jì)算量的設(shè)備,這個(gè)調(diào)節(jié)過程在云端進(jìn)行,而不是在邊緣進(jìn)行。

什么是安全的人工智能/機(jī)器學(xué)習(xí)?為什么我們需要它?

人工智能和機(jī)器學(xué)習(xí)將被應(yīng)用于汽車安全功能,因此必須確保它們不會(huì)違反安全規(guī)則。從汽車行業(yè)背景來思考人工智能和機(jī)器學(xué)習(xí)時(shí),汽車OEM面臨的問題是如何了解特定功能的風(fēng)險(xiǎn)級(jí)別,以及它們可能對(duì)人造成的傷害。因此,在定義功能時(shí),既要避免系統(tǒng)性故障,還要減少隨機(jī)故障。我們利用安全管理流程和安全架構(gòu)來滿足這些要求,從而在由人管理的開發(fā)中,實(shí)現(xiàn)設(shè)備監(jiān)控。

但是,僅遵循我們現(xiàn)有的開發(fā)流程是不夠的,因?yàn)橛?xùn)練和推理在本質(zhì)上有所不同。因此,我們需要定義不同的問題陳述。首先,我們必須了解訓(xùn)練數(shù)據(jù)是否存在系統(tǒng)性故障。其次,我們還必須了解人工智能模型是如何創(chuàng)建的。該模型是否會(huì)產(chǎn)生可能導(dǎo)致系統(tǒng)性故障的不必要偏差?此外,在推理過程中,模型的執(zhí)行是否存在隨機(jī)故障?

在這一方面,機(jī)器學(xué)習(xí)質(zhì)??梢园l(fā)揮作用,涉及到訓(xùn)練和評(píng)估步驟的完整性、正確性和一致性,涵蓋所有頂級(jí)安全流程和數(shù)據(jù)管理,其目的是確保使用的數(shù)據(jù)是正確和完整的,不存在任何偏差。

在推理層面上,安全機(jī)制可以確保硬件的完整性,而這些硬件可能是任何形式的硬件內(nèi)核。經(jīng)典的安全機(jī)制具有ECC/奇偶校驗(yàn)、鎖步和流量監(jiān)控功能。另外,其還能夠利用安全封裝器加以增強(qiáng),對(duì)數(shù)據(jù)進(jìn)行更多檢查,從統(tǒng)計(jì)上衡量安全性能。

4.jpg

恩智浦有關(guān)算法道德的白皮書闡述了恩智浦對(duì)人工智能開發(fā)完整性的看法,并探討了可靠人工智能的安全性和透明度。我們有一款名為Auto eIQ的專用軟件,可幫助開發(fā)人員評(píng)估和優(yōu)化訓(xùn)練模型,并將訓(xùn)練模型部署到目標(biāo)環(huán)境中,幫助我們持續(xù)提高模型的可靠性。

作者簡(jiǎn)介:

Andres Barrilado

恩智浦半導(dǎo)體功能安全評(píng)估員

Andres在恩智浦核心團(tuán)隊(duì)中擔(dān)任功能安全評(píng)估員。過去,Andres還曾經(jīng)擔(dān)任雷達(dá)前端設(shè)備的安全架構(gòu)師,以及汽車傳感器的應(yīng)用工程師。

AETweidian.jpg


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者。如涉及作品內(nèi)容、版權(quán)和其它問題,請(qǐng)及時(shí)通過電子郵件或電話通知我們,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118;郵箱:aet@chinaaet.com。