亚洲日本免费-啊轻点灬太粗太长了三男一女-麻豆av电影在线观看-日韩一级片毛片|www.grbbt.com

生成式人工智能的安全風(fēng)險及監(jiān)管現(xiàn)狀

生成式人工智能是一種人工智能發(fā)展的新技術(shù)樣態(tài),通過利用神經(jīng)網(wǎng)絡(luò)、深度學(xué)習(xí)與遷移學(xué)習(xí)等算法提高算法精度與效率,滿足大量實時交互與沉浸式交互的需求。隨著人工智能技術(shù)的應(yīng)用普及,生成式人工智能技術(shù)濫用等問題不斷出現(xiàn),同時也帶來了信息安全問題。例如,在 2023 年 2 月美國芝加哥市長選舉投票前夕,關(guān)于候選人保羅·瓦拉斯(Paul Vallas)放縱警察執(zhí)法暴力的深度偽造音頻出現(xiàn)在社交媒體,由此引發(fā)美國主流媒體對生成式人工智能可能影響 2024 美國總統(tǒng)大選的擔(dān)憂。2023 年 4 月,美國斯坦福大學(xué)以人為本人工智能研究所(Stanford HAI)發(fā)布的《2023 年人工智能指數(shù)報告》(Artificial Intelligence Index Report 2023)分析了人工智能的影響和年度趨勢。報告發(fā)現(xiàn),關(guān)于人工智能濫用的事件數(shù)量正在迅速上升。通過追蹤人工智能道德濫用相關(guān)事件的人工智能算法和自動化事件和爭議(AIAAIC)數(shù)據(jù)庫,2012 年至 2022 年十年間,人工智能相關(guān)爭議事件增加近 26 倍。針對各類人工智能問題,世界主要國家和地區(qū)陸續(xù)從安全性審查、技術(shù)禁用等角度出臺有關(guān)監(jiān)管措施,以期實現(xiàn)對生成式人工智能的有效治理。

一、生成式人工智能的安全風(fēng)險

生成式人工智能是利用以 Transform 為代表的算法模型,基于海量數(shù)據(jù)預(yù)訓(xùn)練和實時數(shù)據(jù)特征提取自主生成創(chuàng)造新內(nèi)容的技術(shù)范式,并因其自主化、創(chuàng)造性的生成內(nèi)容可以顯著提升信息獲取和生成效率,迅速演化為社會“熱捧”的前沿技術(shù)。從技術(shù)樣態(tài)及其應(yīng)用而言,諸多人工智能數(shù)據(jù)被提取、使用和創(chuàng)造,機器生成的海量內(nèi)容涌入網(wǎng)絡(luò)空間,帶來的風(fēng)險不言而喻。

(一)基于算法能力的內(nèi)容安全風(fēng)險

生成式人工智能改變了互聯(lián)網(wǎng)信息生成和傳播模式,使人工智能生成內(nèi)容(AIGC)成為繼專業(yè)生產(chǎn)內(nèi)容(PGC)、用戶生產(chǎn)內(nèi)容(UGC)后的新型內(nèi)容生產(chǎn)方式。“生成式+人工智能”的組合為虛假信息的泛濫提供了前所未見的技術(shù)“支撐”。生成式人工智能注重知識重組、創(chuàng)造和輸出,如果人為對其進行有偏見性的數(shù)據(jù)導(dǎo)入和算法建構(gòu),其諸多內(nèi)容生成極易演變?yōu)槠娦缘囊庾R形態(tài)輸出。

一方面,傳統(tǒng)的人工智能模型雖然可產(chǎn)生虛假信息,但是其規(guī)模和影響力有限。以 ChatGPT 為代表的生成式人工智能應(yīng)用,可以在情境化和個性化語境操縱、說服和影響用戶。操縱者可以大量生產(chǎn)并擴散虛假信息,并利用社會不穩(wěn)定情緒引導(dǎo)受眾目標(biāo)的價值取向,分裂公眾原有的社會共識,危害國家安全。

另一方面,生成式人工智能將加速國家數(shù)字?jǐn)?shù)據(jù)基礎(chǔ)設(shè)施戰(zhàn)略向“預(yù)測”轉(zhuǎn)變,技術(shù)的政治嵌入性、算法的政治預(yù)測性、數(shù)據(jù)的政治應(yīng)用性將在生成式人工智能加持下改變政治生態(tài)。國家治理邏輯轉(zhuǎn)向預(yù)測、先發(fā)制人和“模擬未來”,國家傾向于從數(shù)據(jù)中“了解”公民,并將決策交給機器學(xué)習(xí)。操縱者在大模型建構(gòu)中可通過數(shù)據(jù)污染、算法黑箱等形式干擾國家政治決策。

(二)基于技術(shù)應(yīng)用的數(shù)據(jù)安全風(fēng)險

人工智能訓(xùn)練數(shù)據(jù)安全是一個重要問題。數(shù)據(jù)層的風(fēng)險多表現(xiàn)為數(shù)據(jù)違規(guī)爬取、合成數(shù)據(jù)違規(guī)使用、人工標(biāo)注數(shù)據(jù)歧視及敏感數(shù)據(jù)存儲安全等。為形成接近于人類語言的語言模型,生成式人工智能訓(xùn)練的數(shù)據(jù)量多達上萬億,并不斷實現(xiàn)監(jiān)督學(xué)習(xí)、人工糾錯、強化學(xué)習(xí)、進行對話模擬等過程。訓(xùn)練數(shù)據(jù)包括大量個人數(shù)據(jù)、行業(yè)數(shù)據(jù)甚至國家數(shù)據(jù)等重要且敏感的數(shù)據(jù),并且在被使用的過程中不斷收集使用者相關(guān)數(shù)據(jù)信息。這些數(shù)據(jù)同樣面臨跨境數(shù)據(jù)流動問題。國家和國際層面的跨境數(shù)據(jù)流動政策不僅會影響貿(mào)易、創(chuàng)新和經(jīng)濟進步,還會影響與數(shù)字化成果分配、人權(quán)、執(zhí)法等與國家安全相關(guān)的一系列問題。

(三)基于大模型的算法安全風(fēng)險

基于大模型的生成式人工智能也帶來了算法透明度低、算法歧視影響社會公平、算法歸責(zé)存在困境等問題。在算法可解釋性方面,大模型技術(shù)的可解釋性將徹底顛覆以算法透明為內(nèi)核構(gòu)建而成的算法治理體系。生成式人工智能的技術(shù)公司是規(guī)則制定者與規(guī)則執(zhí)行者,可以憑借技術(shù)優(yōu)勢人為構(gòu)建“運行黑箱”,導(dǎo)致算法運行過程難以被監(jiān)控,進一步加劇信息不對稱。盡管生成式人工智能模型在很多任務(wù)上表現(xiàn)出色,但是其復(fù)雜的內(nèi)部工作機制使模型解釋性變得困難。這可能導(dǎo)致在模型出現(xiàn)問題時難以定位原因,增加了算法歸責(zé)的難度。如果生成式人工智能模型依賴的大量訓(xùn)練數(shù)據(jù)存在偏差,就會導(dǎo)致模型在某些特定領(lǐng)域的預(yù)測結(jié)果存在偏差,從而影響算法的公平性和準(zhǔn)確性。

二、主要國家和地區(qū)的生成式人工智能監(jiān)管實踐

以美國、歐盟、英國和中國為代表的國家和地區(qū),均針對生成式人工智能提出了相異的監(jiān)管方法,形成了不同的監(jiān)管類型。

(一)技術(shù)審查思路

部分國家和地區(qū)采用技術(shù)審查措施,重點關(guān)注生成式人工智能的安全性風(fēng)險。技術(shù)審查是確保生成式人工智能系統(tǒng)安全、可靠和合法的關(guān)鍵環(huán)節(jié),主要目的是評估生成式人工智能系統(tǒng)的技術(shù)性能、安全性、可靠性及合規(guī)性,確保人工智能系統(tǒng)不會對用戶造成傷害或侵犯用戶隱私權(quán)益。技術(shù)審查涵蓋多個方面,主要包括數(shù)據(jù)安全與隱私保護、模型訓(xùn)練與優(yōu)化、算法設(shè)計與實現(xiàn)、系統(tǒng)集成與測試等。技術(shù)審查也應(yīng)考慮人工智能系統(tǒng)在各種應(yīng)用場景的性能表現(xiàn)、安全風(fēng)險及合規(guī)要求。

美國政府在 2022 年 10 月發(fā)布了《人工智能權(quán)利法案藍圖》(Blueprint for an AI Bill of Right),旨在指導(dǎo)自動化系統(tǒng)的設(shè)計、使用和部署,保護美國公眾個人數(shù)據(jù)不被人工智能算法濫用。2023 年 1 月,美國國家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)發(fā)布了《人工智能風(fēng)險管理框架》(AI RMF),旨在指導(dǎo)機構(gòu)組織在開發(fā)和部署人工智能系統(tǒng)時降低安全風(fēng)險,確保人工智能的穩(wěn)健性、安全性和道德性。然而,這些政策措施并沒有完全消除業(yè)界和學(xué)界對人工智能技術(shù)可能造成危害的擔(dān)憂。2023 年 3 月,埃隆·馬斯克(Elon Musk)等千名業(yè)界和學(xué)界人士聯(lián)署公開信,呼吁所有人工智能實驗室立即暫停訓(xùn)練比 GPT-4 更強大的人工智能系統(tǒng),暫停至少 6 個月,以便制定和實施安全協(xié)議。2023 年 4 月,美國科技倫理組織人工智能和數(shù)字政策中心(CAIDP)要求美國聯(lián)邦貿(mào)易委員會(FTC)阻止 OpenAI 發(fā)布新的 GPT-4 商用版本,理由是 GPT-4“有偏見性,欺騙性,對隱私和公共安全構(gòu)成風(fēng)險”。2023 年 4 月,出于對人工智能技術(shù)可能造成危害的擔(dān)憂,拜登政府已開始研究是否需要對 ChatGPT 等人工智能工具進行審查。美國商務(wù)部的國家電信和信息管理局(NTIA)就 ChatGPT 等人工智能工具監(jiān)管措施公開征求意見,收集的公眾意見將提供給白宮,確保聯(lián)邦政府對人工智能相關(guān)風(fēng)險和機遇采取統(tǒng)一而全面的措施。

除美國外,僅在 2023 年 4 月就有多個國家出臺了關(guān)于生成式人工智能及其應(yīng)用工具的審查性政策。4 月 4 日,加拿大隱私專員辦公室宣布,將對 ChatGPT 背后的公司 OpenAI 展開調(diào)查,調(diào)查的原因是其涉嫌“未經(jīng)同意收集、使用和披露個人信息”。美國路透社 4 月 11 日消息,法國網(wǎng)絡(luò)國家信息自由委員會(CNIL)表示,正在調(diào)查有關(guān) ChatGPT 的幾起投訴。4 月 13 日,西班牙數(shù)據(jù)保護局(AEPD)要求歐洲數(shù)據(jù)保護委員會(EDBP)評估關(guān)于美國 OpenAI 公司 ChatGPT 的隱私問題。5 月 11 日,美洲數(shù)據(jù)保護網(wǎng)絡(luò)(RIPD)提議在行使其職權(quán)時對生成式人工智能服務(wù)啟動監(jiān)督工作,并將在網(wǎng)絡(luò)框架內(nèi)開展協(xié)調(diào)行動。RIPD 是一個由該地區(qū) 12 個國家的 16 個數(shù)據(jù)保護機構(gòu)組成的論壇,目標(biāo)是促進和保障個人數(shù)據(jù)保護的基本權(quán)利,常設(shè)秘書處設(shè)在西班牙數(shù)據(jù)保護局。

(二)技術(shù)禁用對策

除技術(shù)審查思路外,部分國家和地區(qū)采用更為直接和強制的技術(shù)禁用對策。所謂技術(shù)禁用是指直接通過行政指令、法律程序等形式在特定主權(quán)領(lǐng)域內(nèi)禁止使用生成式人工智能應(yīng)用的對策形式。技術(shù)禁用可以暫時遏制生成式人工智能所帶來的即時性風(fēng)險,發(fā)現(xiàn)并解決潛在的問題,從而保障人工智能系統(tǒng)的可靠性和安全性。

作為歐洲最嚴(yán)格的人工智能監(jiān)管國家,意大利成為全球首個禁用 ChatGPT 的國家。2023 年 3 月 30 日,意大利個人數(shù)據(jù)保護局發(fā)布公告,禁止使用 ChatGPT,并限制 OpenAI 處理意大利用戶的個人信息,同時啟動對該公司的調(diào)查。意大利個人數(shù)據(jù)保護局指出,ChatGPT 違反了《通用數(shù)據(jù)保護條例》(GDPR)規(guī)定,因為它未經(jīng)用戶同意就收集和使用了他們的個人數(shù)據(jù),同時未提供足夠的透明度和可解釋性信息,也未保證數(shù)據(jù)的安全性和質(zhì)量。4 月 12 日,意大利個人數(shù)據(jù)保護局表示,OpenAI 若要解禁 ChatGPT,需在 4 月 30 日前在網(wǎng)站上說明 ChatGPT 數(shù)據(jù)運用原理和方式,要求意大利用戶確認自己年滿 18 歲,出臺技術(shù)方案允許用戶和非用戶糾正或刪除 ChatGPT 產(chǎn)出的錯誤信息,并在 5 月 15 日前開展宣傳活動,告知公眾將使用個人數(shù)據(jù)訓(xùn)練算法,在 9 月 30 日前需采取禁止 13 歲以下用戶和確保 13 歲至 18 歲用戶獲得父母同意的措施。

2023 年 4 月 21 日,德國人工智能工作組負責(zé)人Dieter Kugelmann 表示,德國監(jiān)管機構(gòu)將對 OpenAI 的隱私實踐和歐盟通用數(shù)據(jù)保護條例合規(guī)性展開調(diào)查,可能會效仿意大利,暫時禁用 ChatGPT,原因同樣是數(shù)據(jù)安全問題。德國監(jiān)管機構(gòu)認為,《通用數(shù)據(jù)保護條例》對 OpenAI 和 ChatGPT 構(gòu)成了重大挑戰(zhàn),ChatGPT 可能侵犯了用戶的隱私權(quán)和知情權(quán),而且可能產(chǎn)生誤導(dǎo)性或有害性的內(nèi)容,對公共秩序和民主制度構(gòu)成威脅。

(三)制度化技術(shù)監(jiān)管方法

技術(shù)審查和技術(shù)暫用的監(jiān)管實踐,體現(xiàn)為應(yīng)對生成式人工智能突然大規(guī)模應(yīng)用的臨時性措施。制度監(jiān)管則是通過制定和完善相關(guān)法規(guī)、政策和標(biāo)準(zhǔn),規(guī)范生成式人工智能的使用和管理,從而實現(xiàn)對人工智能的有效監(jiān)管。

為促進生成式人工智能技術(shù)健康發(fā)展和規(guī)范應(yīng)用,根據(jù)《網(wǎng)絡(luò)安全法》等法律法規(guī),中國在 4 月 11 日發(fā)布了《生成式人工智能服務(wù)管理辦法(征求意見稿)》,并于 7 月 10 日正式發(fā)布《生成式人工智能服務(wù)管理暫行辦法》。該管理辦法指出,利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)真實準(zhǔn)確,相關(guān)服務(wù)提供方應(yīng)向國家網(wǎng)信部門申報安全評估,采取措施防止生成虛假信息。該管理辦法將生成式人工智能的監(jiān)管重點置于服務(wù)提供層,放寬了對技術(shù)研發(fā)的監(jiān)管限制。

4 月 27 日,歐洲議會就《人工智能法案》(The AI Act)提案達成臨時政治協(xié)議。該法案要求部署 ChatGPT 等生成式人工智能工具的公司披露用于開發(fā)其系統(tǒng)的受版權(quán)保護的材料。該法案對生成式人工智能的透明性做出初步要求,例如要求披露信息是由人工智能生成的情況、算法框架應(yīng)謹(jǐn)防非法內(nèi)容生成以及公開用于算法訓(xùn)練的數(shù)據(jù)版權(quán)。6 月 14 日,歐洲議會投票通過了《人工智能法案》草案。之后,歐洲議會、歐盟委員會和成員國將就該法案最終條款進行談判磋商。

三、生成式人工智能的監(jiān)管挑戰(zhàn)

由于生成式人工智能技術(shù)的顛覆性和創(chuàng)造性,如何實現(xiàn)技術(shù)的有效監(jiān)管仍是對現(xiàn)有監(jiān)管制度的挑戰(zhàn)。各國均采取措施積極應(yīng)對,美國采取技術(shù)治理路徑,歐盟采取風(fēng)險管理路徑,中國采取制度化技術(shù)監(jiān)管方法,既有制度創(chuàng)新,也保持了監(jiān)管體系統(tǒng)一,既重視內(nèi)容安全,又注重發(fā)展和安全的統(tǒng)一。但是,各國監(jiān)管措施仍表現(xiàn)出臨時性、應(yīng)急性特點,主要目的是遏制技術(shù)“過熱”對數(shù)據(jù)安全、信息權(quán)利造成風(fēng)險。雖然從監(jiān)管功能實現(xiàn)而言,技術(shù)審查和技術(shù)禁用等措施,在短時期可以在很大程度上遏制生成式人工智能的恣意濫用,但是從技術(shù)發(fā)展的長遠角度考慮,應(yīng)建立長效化、專門化的法律制度體系,實現(xiàn)對生成式人工智能的有效監(jiān)管。

一是現(xiàn)有網(wǎng)絡(luò)信息安全責(zé)任分配思路無法適應(yīng)生成式人工智能應(yīng)用的基本模式。網(wǎng)絡(luò)平臺監(jiān)管思路強調(diào)“網(wǎng)站平臺信息內(nèi)容管理主體責(zé)任”,網(wǎng)絡(luò)平臺管理者有義務(wù)審核平臺信息的真實性、準(zhǔn)確性。這是與其網(wǎng)絡(luò)信息傳播渠道的基本定位相契合的歸責(zé)思路。但是,生成式人工智能服務(wù)提供者是依據(jù)用戶需求創(chuàng)制新內(nèi)容,扮演的角色是“網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者”,因而生成式人工智能難以執(zhí)行信息傳播任務(wù)。AIGC 的用途由用戶決定,可以用于學(xué)習(xí)、科研等公益目的,也可以被用于制造虛假輿論。《生成式人工智能服務(wù)管理暫行辦法》第十四條規(guī)定:“提供者發(fā)現(xiàn)違法內(nèi)容的,應(yīng)當(dāng)及時采取停止生成、停止傳輸、消除等處置措施,采取模型優(yōu)化訓(xùn)練等措施進行整改,并向有關(guān)主管部門報告?!边@在實質(zhì)上是要求生成式人工智能服務(wù)提供者承擔(dān) AIGC 的合法性審查責(zé)任,與網(wǎng)絡(luò)平臺責(zé)任分配思路保持相似,卻與技術(shù)應(yīng)用范式不同。因此,亟需以“網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責(zé)任”為基點,提出更為詳盡具體的監(jiān)管措施。

二是對監(jiān)管體系的技術(shù)挑戰(zhàn)。現(xiàn)階段,人工智能及生成式人工智能的監(jiān)管模式均將重點置于監(jiān)管組織建設(shè)、責(zé)任分配和違法責(zé)任追究等制度性議題,所提出的如數(shù)據(jù)版權(quán)、算法透明性和備案規(guī)則也并未就此類“平民化”的深度偽造風(fēng)險提出應(yīng)對措施。

三是對現(xiàn)有立法模式的挑戰(zhàn)。生成式人工智能監(jiān)管的復(fù)雜性,挑戰(zhàn)現(xiàn)有立法模式。從監(jiān)管法律制度建構(gòu)而言,如“禁止生成式人工智能濫用”“禁止生成虛假、暴力、色情等非法 AIGC”的簡單表述,實質(zhì)上僅完成了宣示性的法律文本建構(gòu)工作,并未有效遏制生成式人工智能的諸多風(fēng)險。生成式人工智能技術(shù)關(guān)涉數(shù)據(jù)安全、算法公正和算力保障等議題,又牽涉網(wǎng)絡(luò)謠言、網(wǎng)絡(luò)暴力和虛假信息治理多方位因素?,F(xiàn)有立法體系亟需以更加技術(shù)性的立法模式,建構(gòu)生成式人工智能的監(jiān)管體系。

四、以“一體多元”為監(jiān)管對象的風(fēng)險應(yīng)對

雖然世界主要國家和地區(qū)依據(jù)生成式人工智能應(yīng)用現(xiàn)狀提出了臨時性或暫時性的監(jiān)管措施,但是從監(jiān)管措施的長效化、法治化角度出發(fā),仍需明確生成式人工智能監(jiān)管對象,只有明確生成式人工智能的監(jiān)管對象,有關(guān)監(jiān)管措施才可以依據(jù)對象要素提出有針對性且體系化的監(jiān)管方法。從生成式人工智能的技術(shù)樣態(tài)及其社會應(yīng)用模式出發(fā),其監(jiān)管對象表現(xiàn)出“一體多元”的基本樣態(tài),需要以算法、算力和數(shù)據(jù)等技術(shù)要素為本位,結(jié)合技術(shù)社會應(yīng)用所制造的多元化現(xiàn)實風(fēng)險,提出更具有針對性的監(jiān)管對策。

所謂“一體”,是指以生成式人工智能的技術(shù)樣態(tài)為本位,將監(jiān)管對象確定為生成式人工智能的底層要素,即算法、算力和數(shù)據(jù)。從算法角度看,監(jiān)管制度應(yīng)以維護算法公正性為目的,制定諸如生成式算法備案、算法訓(xùn)練和算法糾偏機制等規(guī)則。從數(shù)據(jù)角度看,監(jiān)管制度應(yīng)著重遏制生成式人工智能恣意收集用戶數(shù)據(jù),或數(shù)據(jù)導(dǎo)入不完全、不真實的情況,特別是對網(wǎng)絡(luò)信息質(zhì)量進行專項治理,保證 AIGC 信息的真實性。算力作為生成式人工智能運行和發(fā)展的底層“燃料”,不宜從技術(shù)發(fā)展角度進行限制,但是可以作為遏制生成式人工智能嚴(yán)重風(fēng)險的應(yīng)急手段。換句話說,在生成式人工智能的發(fā)展或應(yīng)用范式對國家安全產(chǎn)生重大影響時,可以通過必要的算力限制規(guī)則從底層抽離技術(shù)恣意的風(fēng)險。

所謂“多元”,是指對生成式人工智能的社會應(yīng)用樣態(tài)進行動態(tài)式的監(jiān)管。目前,生成式人工智能的主要應(yīng)用模式是人機交互生成圖片、文字等信息,技術(shù)應(yīng)用主要停留在信息生成階段。從技術(shù)發(fā)展趨勢和應(yīng)用潛能看,生成式人工智能與社會交融的方式和渠道仍難以預(yù)測。例如,有學(xué)者總結(jié)了現(xiàn)階段主流的生成式人工智能算法模型,包括代碼生成功能的 Codex 模型、視頻合成功能的 Phenaki 模型,以及控制智能機器人的 GATO 模型等。

可以說,生成式人工智能擁有廣闊的應(yīng)用前景和可能性,有關(guān)監(jiān)管制度應(yīng)著眼于現(xiàn)階段生成式人工智能及 AIGC 所制造的現(xiàn)實風(fēng)險,解決多元多樣且現(xiàn)實存在的重點問題,包括生成式人工智能平臺責(zé)任厘清和監(jiān)管、AIGC 內(nèi)容真實性核查等問題。此外,有關(guān)監(jiān)管機構(gòu)應(yīng)建立生成式人工智能技術(shù)風(fēng)險的動態(tài)研判機制,對生成式人工智能的風(fēng)險進行實時監(jiān)測,保障監(jiān)管機制的動態(tài)調(diào)整。【本文系國家社科基金重大項目網(wǎng)絡(luò)信息安全監(jiān)管法治體系構(gòu)建研究(21&ZD193)階段性成果】

(本文刊登于《中國信息安全》雜志2023年第8期)

來源:中國信息安全

上一篇:2023年勒索軟件威脅態(tài)勢:從加密數(shù)據(jù)向無加密攻擊演變

下一篇:國際專業(yè)技術(shù)機構(gòu)IEEE成員提出減輕衛(wèi)星系統(tǒng)風(fēng)險的網(wǎng)絡(luò)安全框架