0 引言
人工智能指的是計(jì)算代理的開發(fā),這些代理可以執(zhí)行與人類智能相關(guān)的任務(wù),包括語(yǔ)音識(shí)別、視覺感知和一般問題解決[1],其發(fā)展高度依賴數(shù)據(jù)的流通和使用,例如在數(shù)據(jù)收集、數(shù)據(jù)準(zhǔn)備、模型開發(fā)和部署等重要環(huán)節(jié)均需要利用數(shù)據(jù)進(jìn)行訓(xùn)練、測(cè)試以及評(píng)估等。伴隨自然語(yǔ)言處理、搜索引擎、智能生成應(yīng)用等人工智能技術(shù)和產(chǎn)品在日常生活中的深度融合與廣泛應(yīng)用,數(shù)據(jù)使用規(guī)模增長(zhǎng),流動(dòng)性增強(qiáng),暴露面增多,由此帶來(lái)的數(shù)據(jù)泄露、數(shù)據(jù)被盜用或數(shù)據(jù)投毒等安全風(fēng)險(xiǎn)值得進(jìn)一步關(guān)注。目前,美國(guó)、英國(guó)、歐盟、新加坡等國(guó)家和地區(qū)已通過發(fā)布國(guó)家戰(zhàn)略、行政命令、規(guī)范指南和研究報(bào)告等手段,對(duì)人工智能技術(shù)和產(chǎn)品在實(shí)際應(yīng)用中涉及的數(shù)據(jù)安全問題進(jìn)行規(guī)制,以控制和減輕人工智能技術(shù)的應(yīng)用所帶來(lái)的數(shù)據(jù)安全風(fēng)險(xiǎn)。
本文旨在探討人工智能面臨的數(shù)據(jù)安全風(fēng)險(xiǎn),梳理和分析國(guó)外人工智能數(shù)據(jù)安全規(guī)制現(xiàn)狀并有針對(duì)性地提出我國(guó)人工智能的發(fā)展路徑。
1 人工智能面臨的數(shù)據(jù)安全風(fēng)險(xiǎn)
1.1 技術(shù)脆弱性容易導(dǎo)致數(shù)據(jù)泄露或被盜用
人工智能技術(shù)自身的脆弱性和復(fù)雜性等特點(diǎn)容易造成數(shù)據(jù)泄露或被盜用。一方面,深度學(xué)習(xí)、大模型等人工智能技術(shù)本身仍處在發(fā)展階段,容易出現(xiàn)重要結(jié)構(gòu)丟失等問題,引發(fā)數(shù)據(jù)泄露。例如,2023年12月,DeepMind的研究人員聯(lián)合美國(guó)華盛頓大學(xué)、康奈爾大學(xué)等高校研究人員利用分歧攻擊等方法,發(fā)現(xiàn)了ChatGPT的數(shù)據(jù)泄露漏洞,利用該漏洞可以提取出大約1 GB的訓(xùn)練數(shù)據(jù)。另一方面,人工智能在開發(fā)和應(yīng)用過程中需要大量接入應(yīng)用程序接口(Application Programming Interface,API),API自身的漏洞和安全隱患以及不同API之間不同的數(shù)據(jù)安全防護(hù)能力和要求進(jìn)一步提升了數(shù)據(jù)在收集、流動(dòng)和處理過程中的安全防護(hù)要求,也從側(cè)面加劇了數(shù)據(jù)泄露和被盜用的風(fēng)險(xiǎn)。
1.2 人工智能技術(shù)實(shí)際應(yīng)用過程中容易過度收集數(shù)據(jù)
人工智能技術(shù)從本質(zhì)上是一種通過數(shù)據(jù)驅(qū)動(dòng)的方法,因此允許人工智能系統(tǒng)在日常應(yīng)用場(chǎng)景中訪問、收集和處理個(gè)人信息等數(shù)據(jù)是合理且不可避免的。然而,目前智能音箱、智能攝像頭、智能門鎖、智能網(wǎng)聯(lián)汽車等智能設(shè)備廣泛應(yīng)用于家庭、交通、辦公、娛樂等場(chǎng)所,容易出現(xiàn)相關(guān)設(shè)備在未經(jīng)授權(quán)或超出授權(quán)的情況下收集個(gè)人信息、超出業(yè)務(wù)功能實(shí)現(xiàn)所需數(shù)據(jù)范圍收集信息等問題,可能違反個(gè)人信息保護(hù)相關(guān)法律對(duì)于數(shù)據(jù)收集合法、正當(dāng)、必要和最小化等要求,進(jìn)而引發(fā)識(shí)別和暴露數(shù)據(jù)主體行為的風(fēng)險(xiǎn),損害數(shù)據(jù)主體的相關(guān)權(quán)益。
1.3 算法模型透明度有待加強(qiáng)
在沒有用戶參與的情況下,通過自動(dòng)化手段使用事實(shí)數(shù)據(jù)或經(jīng)過推斷做出決策的過程被稱為自動(dòng)化決策(Automated Decision Making, ADM)[2],這是人工智能技術(shù)應(yīng)用的重要場(chǎng)景之一。例如,日常購(gòu)物、新聞和短視頻瀏覽、廣告推送等很多活動(dòng)都涉及到通過特定算法對(duì)用戶的日常行為、偏好、個(gè)人習(xí)慣、經(jīng)濟(jì)狀況等信息進(jìn)行收集、整合、處理分析、評(píng)估和判斷,對(duì)人們的日常生活乃至社會(huì)發(fā)展產(chǎn)生了很大的影響。根據(jù)大多數(shù)國(guó)家和地區(qū)的數(shù)據(jù)安全立法和建議,自動(dòng)化決策應(yīng)該是透明、可解釋、不帶有偏見和歧視的,但實(shí)際情況卻不容樂觀。伴隨著人工智能技術(shù)的不斷發(fā)展,特別是近十年來(lái)深度學(xué)習(xí)技術(shù)、大模型技術(shù)等普遍呈現(xiàn)“黑箱”特征,并且通過在網(wǎng)絡(luò)中使用復(fù)雜的非線性關(guān)聯(lián)和連接,算法的復(fù)雜化發(fā)展造成了目前自動(dòng)化決策容易缺乏透明性和可解釋性,進(jìn)一步增加了個(gè)人隱私泄露的風(fēng)險(xiǎn)和侵犯?jìng)€(gè)人合法權(quán)益等問題。
1.4 訓(xùn)練數(shù)據(jù)遭受攻擊后可能引起決策失誤
準(zhǔn)確性是人工智能系統(tǒng)的核心要求之一。人工智能算法做出的不準(zhǔn)確的決策可能會(huì)導(dǎo)致有害于用戶乃至社會(huì)的嚴(yán)重后果。例如,對(duì)交通情況的不準(zhǔn)確判斷可能導(dǎo)致交通擁堵甚至車禍發(fā)生;對(duì)健康狀況的不準(zhǔn)確判斷可能影響用戶的就診時(shí)機(jī)。人工智能的決策失誤往往是因?yàn)橛?xùn)練數(shù)據(jù)遭受了“投毒”“欺騙”等外部攻擊,例如數(shù)據(jù)投毒通過在訓(xùn)練數(shù)據(jù)里加入偽裝數(shù)據(jù)、惡意樣本等破壞數(shù)據(jù)的完整性,進(jìn)而導(dǎo)致訓(xùn)練的算法模型決策出現(xiàn)偏差,造成相關(guān)數(shù)據(jù)被偽造或者被篡改[3],或者潛在攻擊者通過向計(jì)算模型注入無(wú)效數(shù)據(jù),利用潛在漏洞破壞計(jì)算結(jié)果或者引導(dǎo)輸出隱私信息等,潛在危害很大。
2 國(guó)外人工智能數(shù)據(jù)安全規(guī)制現(xiàn)狀
2.1 美國(guó):多方參與,協(xié)同推進(jìn)人工智能數(shù)據(jù)安全落地
美國(guó)白宮、聯(lián)邦行政部門、科研機(jī)構(gòu)等多方主體通過發(fā)布行政命令、實(shí)踐指南和研究報(bào)告等方式嘗試給出解決人工智能數(shù)據(jù)安全問題的路徑,以維護(hù)其在人工智能領(lǐng)域的全球領(lǐng)先地位。
2023年10月30日,美國(guó)總統(tǒng)拜登簽署頒布了《關(guān)于安全、可靠、值得信賴地開發(fā)和使用人工智能的行政命令》[4],該命令明確了美國(guó)政府對(duì)待人工智能的政策法制框架,涉及人工智能技術(shù)的技術(shù)研發(fā)、安全保障、全球合作等關(guān)鍵議題。該命令專門設(shè)置了“保護(hù)美國(guó)民眾的隱私”章節(jié),詳細(xì)闡述了白宮應(yīng)對(duì)人工智能數(shù)據(jù)安全問題的3條措施。一是針對(duì)人工智能技術(shù)在實(shí)際應(yīng)用中對(duì)個(gè)人隱私的威脅,要支持并加快加密技術(shù)等隱私保護(hù)技術(shù)的研發(fā)和資金投入,保護(hù)用于人工智能的訓(xùn)練數(shù)據(jù)以及普通用戶的個(gè)人信息的安全。二是推動(dòng)開展機(jī)構(gòu)評(píng)估工作,評(píng)估各機(jī)構(gòu)如何收集和使用商業(yè)可用信息,包括從數(shù)據(jù)代理那里獲得的信息,并加強(qiáng)對(duì)聯(lián)邦機(jī)構(gòu)的指導(dǎo)。三是制定實(shí)施指導(dǎo)方針,以評(píng)估人工智能技術(shù)中使用到的隱私保護(hù)技術(shù)的有效性。
在此基礎(chǔ)上,2024年4月,美國(guó)國(guó)家安全局發(fā)布了《安全部署人工智能系統(tǒng):部署安全、彈性人工智能系統(tǒng)的最佳實(shí)踐》[5],該實(shí)踐建議采取強(qiáng)密碼策略、內(nèi)部網(wǎng)絡(luò)分區(qū)、訪問控制和加密。另外,還可以使用數(shù)據(jù)偽裝等方法來(lái)混淆數(shù)據(jù),使得攻擊者無(wú)法對(duì)數(shù)據(jù)進(jìn)行分析從而防止針對(duì)人工智能系統(tǒng)中的數(shù)據(jù)進(jìn)行外部或內(nèi)部攻擊。
此外,美國(guó)斯坦福大學(xué)也在同一時(shí)期發(fā)布了《反思人工智能時(shí)代的隱私問題——針對(duì)“以數(shù)據(jù)為中心”世界的政策建議》[6]白皮書,該白皮書談到了3項(xiàng)人工智能數(shù)據(jù)安全保護(hù)措施。一是進(jìn)一步調(diào)整數(shù)據(jù)收集規(guī)則,將數(shù)據(jù)收集的“默認(rèn)狀態(tài)”從“統(tǒng)一收集”改變?yōu)椤安煌馐占?,充分?shí)現(xiàn)數(shù)據(jù)收集最小化。二是持續(xù)關(guān)注人工智能下數(shù)據(jù)全生命周期的安全,增強(qiáng)數(shù)據(jù)處理活動(dòng)的透明度,確保數(shù)據(jù)從收集、存儲(chǔ)到加工、處理等各個(gè)環(huán)節(jié)的安全。三是優(yōu)化個(gè)人信息的管理模式,持續(xù)更新技術(shù)保護(hù)手段并建立新的數(shù)據(jù)治理機(jī)制。
2.2 英國(guó):包容審慎,溫和規(guī)范人工智能發(fā)展與數(shù)據(jù)流通共享
在人工智能數(shù)據(jù)安全規(guī)制方面,英國(guó)政府一方面提出“基于原則”的人工智能治理方法,兼顧“監(jiān)管”與“創(chuàng)新”,為行業(yè)提供了具備確定性、一致性的監(jiān)管方法。另一方面不斷促進(jìn)數(shù)據(jù)流動(dòng)與共享,持續(xù)賦能人工智能健康發(fā)展。
在治理方面,2023年3月,英國(guó)政府發(fā)布了《促進(jìn)創(chuàng)新的人工智能監(jiān)管方法》[7],該方法明確提出,人工智能在使用過程中存在隱私和代理風(fēng)險(xiǎn),具體來(lái)說(shuō)就是家中連接的設(shè)備可能會(huì)不斷收集數(shù)據(jù),包括對(duì)話,這可能會(huì)對(duì)個(gè)人的家庭生活進(jìn)行近乎完整的描述。訪問這些數(shù)據(jù)的各方主體越多,隱私風(fēng)險(xiǎn)就越大。對(duì)此,可以通過利用“適當(dāng)?shù)耐该鞫群涂山忉屝浴痹瓌t來(lái)加強(qiáng)用戶和監(jiān)管人員對(duì)于人工智能系統(tǒng)實(shí)際運(yùn)行情況的了解,從而解決相應(yīng)的隱私風(fēng)險(xiǎn)。
在促進(jìn)數(shù)據(jù)流通共享方面,2023年12月,英國(guó)《數(shù)據(jù)保護(hù)和數(shù)字信息法案》[8]在上議院進(jìn)行了二讀,該法案提到,要減少數(shù)據(jù)流動(dòng)的障礙,并與提供足夠數(shù)據(jù)保護(hù)能力水平的國(guó)家(如美國(guó)、阿聯(lián)酋等)建立“數(shù)據(jù)橋梁”,促進(jìn)數(shù)據(jù)流通,從而從側(cè)面間接推動(dòng)人工智能的發(fā)展。
在技術(shù)方面,2022年9月7日,英國(guó)信息專員辦公室發(fā)布了《匿名化、假名化及隱私增強(qiáng)技術(shù)指南草案》,介紹了隱私增強(qiáng)技術(shù)的基本概念、傳統(tǒng)隱私增強(qiáng)技術(shù)和新型隱私增強(qiáng)技術(shù)的類型定義和應(yīng)用場(chǎng)景,并通過3項(xiàng)具體場(chǎng)景給出了隱私增強(qiáng)技術(shù)的應(yīng)用指南。
2.3 歐盟:嚴(yán)格規(guī)制,有效防范人工智能數(shù)據(jù)安全風(fēng)險(xiǎn)
歐盟在人工智能數(shù)據(jù)安全規(guī)制方面保持了一貫的強(qiáng)勢(shì)姿態(tài),通過禁止或限制高風(fēng)險(xiǎn)應(yīng)用來(lái)監(jiān)管人工智能,從而解決或緩解正在面臨的數(shù)據(jù)安全風(fēng)險(xiǎn)。2024年5月,歐洲理事會(huì)正式批準(zhǔn)《人工智能法案》[9]。作為專門針對(duì)人工智能的綜合性立法,該法案明確提出了3項(xiàng)保護(hù)人權(quán)和隱私的具體措施。一是透明度和可解釋性。要求人工智能系統(tǒng)的開發(fā)者提供關(guān)于算法工作原理的足夠信息,確保用戶和系統(tǒng)之間的互動(dòng)是透明的。這一舉措有助于用戶理解系統(tǒng)的決策過程,從而避免因?yàn)椴豢深A(yù)測(cè)的行為而侵犯人權(quán)。二是數(shù)據(jù)保護(hù)。強(qiáng)化了數(shù)據(jù)保護(hù)要求,包括對(duì)個(gè)人數(shù)據(jù)的收集、處理和使用進(jìn)行嚴(yán)格監(jiān)管。開發(fā)者必須遵循數(shù)據(jù)最小化原則,只收集完成任務(wù)所必需的數(shù)據(jù),并采取措施保護(hù)數(shù)據(jù)的機(jī)密性、完整性和可用性。三是禁止濫用。明確禁止利用人工智能系統(tǒng)侵犯人權(quán)和隱私的行為,如歧視、侵犯隱私、操縱個(gè)人數(shù)據(jù)等。違反者將面臨嚴(yán)厲的法律制裁。
除此之外,《通用數(shù)據(jù)保護(hù)條例》《算法問責(zé)及透明度監(jiān)管框架》以及《數(shù)字服務(wù)法案》等已經(jīng)頒布和生效的法律規(guī)范也不同程度涉及了算法解釋權(quán)的設(shè)立、算法透明度和可解釋性的監(jiān)管以及算法透明審計(jì)等內(nèi)容,進(jìn)一步提升了人工智能數(shù)據(jù)安全。
2.4 新加坡:靈活開放,明確人工智能數(shù)據(jù)安全原則和方向
新加坡政府對(duì)人工智能發(fā)展的監(jiān)管始終秉持開放和學(xué)習(xí)的態(tài)度。2018年,新加坡金融管理局發(fā)布了《促進(jìn)新加坡金融業(yè)公平、道德、可問責(zé)和透明地使用人工智能和數(shù)據(jù)分析的原則》[10],對(duì)金融機(jī)構(gòu)合理、準(zhǔn)確使用人工智能和數(shù)據(jù)分析工具并建立有效的問責(zé)機(jī)制等進(jìn)行指引。
2023年12月,新加坡發(fā)布了《國(guó)家人工智能戰(zhàn)略2.0》[11],明確提出在合成數(shù)據(jù)生成、數(shù)據(jù)注釋、聯(lián)邦學(xué)習(xí)和同態(tài)加密等領(lǐng)域加強(qiáng)隱私增強(qiáng)技術(shù)的研發(fā),并且明確將為企業(yè)和個(gè)人提供安全工具包,以應(yīng)對(duì)人工智能安全風(fēng)險(xiǎn)。
2024年3月,新加坡個(gè)人數(shù)據(jù)保護(hù)委員會(huì)發(fā)布了《關(guān)于在人工智能推薦和決策系統(tǒng)中使用個(gè)人數(shù)據(jù)的咨詢指南》[12]。該指南明確了人工智能系統(tǒng)在數(shù)據(jù)收集和準(zhǔn)備、模型開發(fā)和部署等環(huán)節(jié)對(duì)個(gè)人信息的保護(hù)要求,明確數(shù)據(jù)收集最小化、數(shù)據(jù)匿名化等注意事項(xiàng),同時(shí)給予了相關(guān)服務(wù)提供商最佳案例指導(dǎo),為實(shí)踐工作有序開展提供參考。
3 對(duì)我國(guó)的啟示及借鑒
為充分解決人工智能數(shù)據(jù)安全風(fēng)險(xiǎn),促進(jìn)人工智能技術(shù)健康發(fā)展,要從強(qiáng)化頂層設(shè)計(jì)、強(qiáng)化安全監(jiān)管、加快技術(shù)創(chuàng)新等方面著手,構(gòu)建全方位、多元化的解決方案。
3.1 強(qiáng)化頂層設(shè)計(jì)
全面的頂層設(shè)計(jì)是支撐人工智能數(shù)據(jù)安全的基礎(chǔ)。目前,國(guó)內(nèi)針對(duì)算法和生成式人工智能已經(jīng)出臺(tái)了《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》《生成式人工智能服務(wù)管理暫行辦法》等法律規(guī)范,明確提出了人工智能服務(wù)提供者應(yīng)當(dāng)建立數(shù)據(jù)安全和個(gè)人信息保護(hù)管理制度并采取技術(shù)措施,實(shí)施算法備案、分類分級(jí)管理等。面對(duì)人工智能數(shù)據(jù)安全監(jiān)管的頂層設(shè)計(jì)已初步構(gòu)建,但與美歐等發(fā)達(dá)國(guó)家和地區(qū)覆蓋多行業(yè)多領(lǐng)域的監(jiān)管策略相比,仍存在重點(diǎn)行業(yè)重點(diǎn)領(lǐng)域頂層設(shè)計(jì)缺失等問題。為進(jìn)一步強(qiáng)化人工智能數(shù)據(jù)安全頂層設(shè)計(jì),建議盡快制定醫(yī)療、教育、通信、新能源、智能網(wǎng)聯(lián)汽車等人工智能技術(shù)普遍應(yīng)用的重點(diǎn)行業(yè)重點(diǎn)領(lǐng)域人工智能數(shù)據(jù)安全規(guī)范指引,合理擴(kuò)大監(jiān)管范圍,進(jìn)一步明確相關(guān)行業(yè)主體在人工智能數(shù)據(jù)安全方面的責(zé)任和義務(wù),規(guī)范技術(shù)應(yīng)用和管理措施,確定違規(guī)罰則,確保相關(guān)行業(yè)人工智能數(shù)據(jù)安全。
3.2 加強(qiáng)實(shí)踐指引
明晰的實(shí)踐指引是確保人工智能數(shù)據(jù)安全的關(guān)鍵核心。近年來(lái),歐美等發(fā)達(dá)國(guó)家和地區(qū)均發(fā)布了人工智能的實(shí)踐或?qū)嵺`指引,用以引導(dǎo)行業(yè)企業(yè)合理處理人工智能數(shù)據(jù)安全風(fēng)險(xiǎn),提升安全能力。目前為止,國(guó)內(nèi)針對(duì)人工智能數(shù)據(jù)安全的實(shí)踐指引較為缺乏,企業(yè)經(jīng)常面臨“如何做”“做到什么程度”的困惑。為解決上述問題,一方面,建議重點(diǎn)行業(yè)重點(diǎn)領(lǐng)域適時(shí)發(fā)布人工智能數(shù)據(jù)安全行業(yè)實(shí)踐指引,明確本行業(yè)本領(lǐng)域人工智能數(shù)據(jù)安全防護(hù)重點(diǎn)難點(diǎn),指導(dǎo)企業(yè)建立健全人工智能數(shù)據(jù)安全技術(shù)和管理體系,幫助企業(yè)快速有效處理數(shù)據(jù)安全風(fēng)險(xiǎn)。另一方面,建議適時(shí)開展行業(yè)人工智能數(shù)據(jù)安全典型實(shí)踐遴選工作,充分挖掘典型經(jīng)驗(yàn)做法,樹立安全防護(hù)標(biāo)桿,有效促進(jìn)相關(guān)從業(yè)人員切實(shí)提升數(shù)據(jù)安全防護(hù)能力。
3.3 加快技術(shù)創(chuàng)新
有效的安全技術(shù)手段是實(shí)現(xiàn)人工智能數(shù)據(jù)安全的重要保障。英國(guó)、新加坡、歐盟等國(guó)家和地區(qū)均提出了加強(qiáng)安全多方計(jì)算、聯(lián)邦學(xué)習(xí)等隱私增強(qiáng)技術(shù)的研究和應(yīng)用,以應(yīng)對(duì)人工智能數(shù)據(jù)安全風(fēng)險(xiǎn),加強(qiáng)數(shù)據(jù)安全防護(hù)。目前國(guó)內(nèi)在類似技術(shù)的研究和應(yīng)用方面仍處在起步階段,相關(guān)技術(shù)發(fā)展時(shí)間較短,與國(guó)外相比仍有一定差距。因此,應(yīng)當(dāng)盡快推動(dòng)隱私計(jì)算、合成數(shù)據(jù)生成、數(shù)據(jù)質(zhì)量管理等與人工智能數(shù)據(jù)安全緊密相關(guān)的前沿技術(shù)穩(wěn)定發(fā)展,明晰技術(shù)應(yīng)用范式,進(jìn)一步優(yōu)化技術(shù)架構(gòu),提升技術(shù)性能和效率。推動(dòng)相關(guān)技術(shù)在重點(diǎn)行業(yè)應(yīng)用,引導(dǎo)相關(guān)技術(shù)落地實(shí)踐。另外,應(yīng)當(dāng)進(jìn)一步探索和開發(fā)人工智能數(shù)據(jù)安全保障框架,明確數(shù)據(jù)安全保障機(jī)制、流程和達(dá)到的效果,進(jìn)一步指導(dǎo)安全技術(shù)應(yīng)用實(shí)施。
4 結(jié)束語(yǔ)
人工智能作為新興領(lǐng)域正處在快速發(fā)展時(shí)期,對(duì)于社會(huì)生活產(chǎn)生了顯著影響。例如,ChatGPT、文心一言等生成式人工智能不僅深度賦能政務(wù)、金融、交通、購(gòu)物等生活的方方面面,成為日常生活的得力助手,并且有力推動(dòng)了數(shù)據(jù)、算力、算網(wǎng)等深度融合,賦能新質(zhì)生產(chǎn)力的發(fā)展。然而,人工智能技術(shù)的廣泛應(yīng)用所帶來(lái)的數(shù)據(jù)泄露、被盜用、被篡改等問題也日益嚴(yán)重。我國(guó)作為人工智能和數(shù)據(jù)安全領(lǐng)域的先行國(guó)家,要始終秉持既嚴(yán)肅認(rèn)真又審慎包容的態(tài)度,發(fā)揮相關(guān)優(yōu)勢(shì),在頂層設(shè)計(jì)、實(shí)踐指引、技術(shù)創(chuàng)新等方面不斷發(fā)力,有效提升人工智能數(shù)據(jù)安全保護(hù)能力,更好推動(dòng)社會(huì)高質(zhì)量發(fā)展。
Foreign artificial intelligence data security regulation and enlightenment to China
GUAN Weidong
(Security Research Institute, China Academy of Information and Communications Technology, Beijing 100191, China)
Abstract: With the extensive application and continuous development of artificial intelligence technology, the data security risks caused by it are increasing. By summarizing security risks such as data leakage, excessive data collection, lack of transparency of model algorithms and data vulnerability in the application of artificial intelligence, this paper reviews and analyzes the practical experience of the United States, the United Kingdom, the European Union and Singapore in data security regulation activities. Comprehensive and diversified development paths such as strengthening top-level design, strengthening practical guidance and accelerating technological innovation are proposed to further improve the ability of artificial intelligence data security protection.
Keywords: artificial intelligence; data security; regulation; practical experience; development path
本文刊于《信息通信技術(shù)與政策》2024年 第8期