關(guān)于加強(qiáng)人工智能應(yīng)用安全,促進(jìn)數(shù)字經(jīng)濟(jì)穩(wěn)步發(fā)展的提案
2021-03-05
來源: 啟明星辰集團(tuán)
小編為大家分享全國政協(xié)委員、啟明星辰信息技術(shù)集團(tuán)股份有限公司首席執(zhí)行官嚴(yán)望佳第二份提案
提案二:關(guān)于加強(qiáng)人工智能應(yīng)用安全,促進(jìn)數(shù)字經(jīng)濟(jì)穩(wěn)步發(fā)展的提案
問題及原因分析
數(shù)字經(jīng)濟(jì)作為引領(lǐng)未來的新經(jīng)濟(jì)形態(tài)已成為我國高質(zhì)量發(fā)展的新引擎,習(xí)近平總書記更是指出“數(shù)字經(jīng)濟(jì)是全球未來的發(fā)展方向”。數(shù)據(jù)作為生產(chǎn)要素,依托人工智能應(yīng)用將會(huì)充分展現(xiàn)其要素價(jià)值,促進(jìn)數(shù)字經(jīng)濟(jì)的進(jìn)一步騰飛。
在大力發(fā)展人工智能應(yīng)用,助力數(shù)字經(jīng)濟(jì)發(fā)展的同時(shí),必須堅(jiān)持統(tǒng)籌發(fā)展與安全,加強(qiáng)人工智能應(yīng)用安全,促進(jìn)數(shù)字經(jīng)濟(jì)穩(wěn)步前行。當(dāng)前人工智能應(yīng)用主要面臨如下一些安全問題。
1)與人工智能應(yīng)用相關(guān)的數(shù)據(jù)安全及隱私保護(hù)問題。構(gòu)建人工智能應(yīng)用通常以大量數(shù)據(jù)為基礎(chǔ),包括可能涉及的個(gè)人數(shù)據(jù)、企業(yè)敏感數(shù)據(jù)等。而數(shù)據(jù)的采集、處理、計(jì)算等過程不可避免會(huì)產(chǎn)生數(shù)據(jù)安全與隱私保護(hù)問題。
2)人工智能應(yīng)用中算法“黑盒”應(yīng)用模式的安全隱患。當(dāng)前很多人工智能應(yīng)用往往直接套用現(xiàn)有模型,缺乏對(duì)核心算法的深入剖析,忽視其工作原理。在這些應(yīng)用中,算法是不透明的“黑盒子”,很可能潛藏未知的安全隱患。
3)人工智能應(yīng)用軟硬件供應(yīng)鏈安全問題。人工智能應(yīng)用的實(shí)現(xiàn)包含大量工程化工作,涉及從底層芯片到上層應(yīng)用開發(fā)的一系列軟硬件供應(yīng)鏈,每一環(huán)節(jié)都可能產(chǎn)生安全問題。另外,實(shí)現(xiàn)中可能依賴開源代碼,既存在引入漏洞或后門的風(fēng)險(xiǎn),又觸及知識(shí)產(chǎn)權(quán)方面的問題。
4)逐漸顯現(xiàn)的人工智能應(yīng)用倫理安全問題。在這些問題中,既有將人工智能應(yīng)用于錯(cuò)誤目的,比如屢屢發(fā)生的“大數(shù)據(jù)殺熟”;也有應(yīng)用構(gòu)建過程不合理,比如算法偏見造成的決策不公;還有應(yīng)用部署后的問題,比如決策錯(cuò)誤引發(fā)損失時(shí)的責(zé)任認(rèn)定等。
具體建議
“安全是發(fā)展的前提,發(fā)展是安全的保障”,為了穩(wěn)步推進(jìn)數(shù)字經(jīng)濟(jì)發(fā)展,充分發(fā)揮人工智能應(yīng)用在發(fā)掘數(shù)據(jù)要素價(jià)值方面的作用,必須始終貫徹安全發(fā)展理念,從多方面采取有效措施加強(qiáng)人工智能應(yīng)用安全。具體建議如下:
1)加強(qiáng)人工智能應(yīng)用相關(guān)的數(shù)據(jù)安全及隱私保護(hù)技術(shù)研究
人工智能應(yīng)用在獲取數(shù)據(jù)價(jià)值的同時(shí)也面臨著數(shù)據(jù)安全風(fēng)險(xiǎn)。傳統(tǒng)的數(shù)據(jù)脫敏等安全防護(hù)技術(shù)在隱藏敏感信息的同時(shí)也造成數(shù)據(jù)價(jià)值的損失。因此,在推進(jìn)數(shù)據(jù)安全相關(guān)法律完善的同時(shí),還應(yīng)加強(qiáng)隱私計(jì)算、安全多方計(jì)算等前沿技術(shù)研究,在不泄露隱私與敏感信息的前提下保留數(shù)據(jù)價(jià)值并支持人工智能應(yīng)用構(gòu)建所需的高效計(jì)算。建議設(shè)立相關(guān)專項(xiàng)課題推動(dòng)產(chǎn)學(xué)研合作開展技術(shù)研究與應(yīng)用落地攻關(guān)等。
2)強(qiáng)化人工智能應(yīng)用的透明性要求,避免“黑盒”應(yīng)用
以深度神經(jīng)網(wǎng)絡(luò)為代表的新型人工智能算法模型復(fù)雜,尚缺乏嚴(yán)格的理論基礎(chǔ),其可解釋性仍然是一個(gè)前沿研究課題。在核心算法原理不明的情況下構(gòu)建的人工智能應(yīng)用可能產(chǎn)生意料之外的行為,安全風(fēng)險(xiǎn)不可控。因此,必須提高人工智能應(yīng)用的透明性要求,尤其在涉及社會(huì)、人身安全的關(guān)鍵領(lǐng)域應(yīng)避免“黑盒”應(yīng)用。建議制定相關(guān)法律及標(biāo)準(zhǔn)規(guī)范,明確各領(lǐng)域人工智能應(yīng)用的透明性要求與衡量指標(biāo)等。
3)推動(dòng)人工智能應(yīng)用供應(yīng)鏈安全評(píng)估,強(qiáng)化自主可控要求
在如今供應(yīng)鏈安全事件頻發(fā)的態(tài)勢(shì)下,人工智能應(yīng)用軟硬件供應(yīng)鏈的安全問題應(yīng)得到更多關(guān)注。因此,必須加強(qiáng)人工智能應(yīng)用供應(yīng)鏈安全評(píng)估,尤其對(duì)于涉及國計(jì)民生行業(yè)中的關(guān)鍵信息基礎(chǔ)設(shè)施相關(guān)的人工智能應(yīng)用,在做好安全評(píng)估的基礎(chǔ)上還應(yīng)強(qiáng)化自主可控要求,避免被“卡脖子”。建議規(guī)范人工智能應(yīng)用供應(yīng)鏈安全評(píng)估機(jī)制并研究評(píng)估技術(shù)與方法,促進(jìn)相關(guān)核心技術(shù)研究以實(shí)現(xiàn)自主可控等。此外,考慮到人工智能應(yīng)用越來越多的源自開源軟件領(lǐng)域,建議高度關(guān)注與加強(qiáng)評(píng)估開源供應(yīng)鏈安全和開源軟件安全,做好開源領(lǐng)域的風(fēng)險(xiǎn)管控。
4)制度與技術(shù)雙輪驅(qū)動(dòng)負(fù)責(zé)任的人工智能應(yīng)用
國家新一代人工智能治理專業(yè)委員會(huì)發(fā)布的《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》提出了和諧友好、公平公正、安全可控、共擔(dān)責(zé)任等人工智能發(fā)展原則。這些原則的落實(shí)對(duì)于人工智能應(yīng)用倫理安全問題的應(yīng)對(duì)及數(shù)字經(jīng)濟(jì)的長遠(yuǎn)發(fā)展具有重大意義。因此,必須從制度與技術(shù)兩方面共同采取措施促進(jìn)發(fā)展負(fù)責(zé)任的人工智能應(yīng)用。建議推動(dòng)人工智能治理規(guī)范的量化評(píng)測(cè)方法研究并制定相關(guān)規(guī)范制度,促進(jìn)產(chǎn)學(xué)研協(xié)同研究打造負(fù)責(zé)任的人工智能應(yīng)用等。