根據(jù)思科(Cisco)日前進行的一項調(diào)查,盡管很多員工了解生成式AI在數(shù)據(jù)隱私方面的缺陷,但許多人仍在向ChatGPT等類似的AI應(yīng)用程序輸入敏感的公司數(shù)據(jù)。
思科針對全球12個國家的2600名隱私和安全專業(yè)人士進行的年度數(shù)據(jù)隱私基準調(diào)查表明,超過四分之一的公司在內(nèi)部實施了生成式AI禁令,三分之二的公司對哪些信息可以輸入基于大型語言模型(LLM)的系統(tǒng)設(shè)置了護欄,或者禁止使用特定的應(yīng)用程序。
思科卓越隱私中心主任Robert Waitman在博客文章中寫道:“超過三分之二的受訪者表示,他們擔心數(shù)據(jù)有被競爭對手或公眾共享的風險。盡管如此,他們中的許多人輸入了可能有問題的信息,包括有關(guān)所在公司的非公開信息(48%)。”
多數(shù)受訪者已經(jīng)意識到生成式AI的數(shù)據(jù)隱私問題
不出所料,調(diào)查表明,受訪者對生成式AI的了解程度越來越高,55%的人表示他們“非常熟悉”這項技術(shù)。而在2023年的調(diào)查中,52%的人表示不熟悉。與此同時,79%的受訪者在今年的調(diào)查表示,他們正在從生成式AI應(yīng)用中提取“顯著或非常顯著的價值”。
即便如此,在部署此類工具時,受訪者對公司保護數(shù)據(jù)安全的能力一直持保留態(tài)度。其中包括擔心AI可能危及其公司的法律和知識產(chǎn)權(quán)(69%),將專有數(shù)據(jù)泄露給競爭對手或公眾(68%),以及應(yīng)用程序輸出內(nèi)容可能不準確(68%)。與此同時,92%的受訪者認為,部署生成式AI需要“管理數(shù)據(jù)和風險的新技術(shù)”。
盡管存在這些擔憂,但許多受訪者坦率地承認,他們曾將敏感的公司數(shù)據(jù)輸入到生成AI應(yīng)用程序中。例如,62%的人輸入了有關(guān)內(nèi)部流程的信息,而48%的人在生成式AI應(yīng)用程序中使用敏感的公司數(shù)據(jù)以尋求新的見解。
企業(yè)發(fā)布內(nèi)部使用生成式AI禁令變得越來越普遍
很多公司似乎也開始通過對生成式AI的使用設(shè)置護欄來應(yīng)對帶來的這些誘惑。27%的受訪者表示,他們的公司已經(jīng)完全禁止使用這項技術(shù)。其他公司則設(shè)置了一定的限制,這些限制措施通常是數(shù)據(jù)限制(63%)、工具限制(61%)或數(shù)據(jù)驗證要求(36%)。
這些調(diào)查發(fā)現(xiàn)與零售、制造業(yè)和金融服務(wù)行業(yè)組織在2023年發(fā)布的類似公告相呼應(yīng),他們將對生成式AI的內(nèi)部使用設(shè)置護欄。今年5月,三星禁止其員工使用生成式AI,亞馬遜、蘋果和Verizon也實施了類似的限制。
生成式AI專家Henry Ajder表示,這些決定可能是出于監(jiān)管的不確定性,以及對數(shù)據(jù)隱私的擔憂。
“人們意識到,如果他們以目前的方式使用生成式AI,在當前的監(jiān)管環(huán)境下,他們的一些行為將會違反法規(guī),或者公司在安全維護方面的成本將非常高?!盇jder說。