亚洲日本免费-啊轻点灬太粗太长了三男一女-麻豆av电影在线观看-日韩一级片毛片|www.grbbt.com

生成式人工智能的安全風(fēng)險(xiǎn)及監(jiān)管現(xiàn)狀

生成式人工智能是一種人工智能發(fā)展的新技術(shù)樣態(tài),通過(guò)利用神經(jīng)網(wǎng)絡(luò)、深度學(xué)習(xí)與遷移學(xué)習(xí)等算法提高算法精度與效率,滿足大量實(shí)時(shí)交互與沉浸式交互的需求。隨著人工智能技術(shù)的應(yīng)用普及,生成式人工智能技術(shù)濫用等問(wèn)題不斷出現(xiàn),同時(shí)也帶來(lái)了信息安全問(wèn)題。例如,在 2023 年 2 月美國(guó)芝加哥市長(zhǎng)選舉投票前夕,關(guān)于候選人保羅·瓦拉斯(Paul Vallas)放縱警察執(zhí)法暴力的深度偽造音頻出現(xiàn)在社交媒體,由此引發(fā)美國(guó)主流媒體對(duì)生成式人工智能可能影響 2024 美國(guó)總統(tǒng)大選的擔(dān)憂。2023 年 4 月,美國(guó)斯坦福大學(xué)以人為本人工智能研究所(Stanford HAI)發(fā)布的《2023 年人工智能指數(shù)報(bào)告》(Artificial Intelligence Index Report 2023)分析了人工智能的影響和年度趨勢(shì)。報(bào)告發(fā)現(xiàn),關(guān)于人工智能濫用的事件數(shù)量正在迅速上升。通過(guò)追蹤人工智能道德濫用相關(guān)事件的人工智能算法和自動(dòng)化事件和爭(zhēng)議(AIAAIC)數(shù)據(jù)庫(kù),2012 年至 2022 年十年間,人工智能相關(guān)爭(zhēng)議事件增加近 26 倍。針對(duì)各類人工智能問(wèn)題,世界主要國(guó)家和地區(qū)陸續(xù)從安全性審查、技術(shù)禁用等角度出臺(tái)有關(guān)監(jiān)管措施,以期實(shí)現(xiàn)對(duì)生成式人工智能的有效治理。

一、生成式人工智能的安全風(fēng)險(xiǎn)

生成式人工智能是利用以 Transform 為代表的算法模型,基于海量數(shù)據(jù)預(yù)訓(xùn)練和實(shí)時(shí)數(shù)據(jù)特征提取自主生成創(chuàng)造新內(nèi)容的技術(shù)范式,并因其自主化、創(chuàng)造性的生成內(nèi)容可以顯著提升信息獲取和生成效率,迅速演化為社會(huì)“熱捧”的前沿技術(shù)。從技術(shù)樣態(tài)及其應(yīng)用而言,諸多人工智能數(shù)據(jù)被提取、使用和創(chuàng)造,機(jī)器生成的海量?jī)?nèi)容涌入網(wǎng)絡(luò)空間,帶來(lái)的風(fēng)險(xiǎn)不言而喻。

(一)基于算法能力的內(nèi)容安全風(fēng)險(xiǎn)

生成式人工智能改變了互聯(lián)網(wǎng)信息生成和傳播模式,使人工智能生成內(nèi)容(AIGC)成為繼專業(yè)生產(chǎn)內(nèi)容(PGC)、用戶生產(chǎn)內(nèi)容(UGC)后的新型內(nèi)容生產(chǎn)方式。“生成式+人工智能”的組合為虛假信息的泛濫提供了前所未見的技術(shù)“支撐”。生成式人工智能注重知識(shí)重組、創(chuàng)造和輸出,如果人為對(duì)其進(jìn)行有偏見性的數(shù)據(jù)導(dǎo)入和算法建構(gòu),其諸多內(nèi)容生成極易演變?yōu)槠娦缘囊庾R(shí)形態(tài)輸出。

一方面,傳統(tǒng)的人工智能模型雖然可產(chǎn)生虛假信息,但是其規(guī)模和影響力有限。以 ChatGPT 為代表的生成式人工智能應(yīng)用,可以在情境化和個(gè)性化語(yǔ)境操縱、說(shuō)服和影響用戶。操縱者可以大量生產(chǎn)并擴(kuò)散虛假信息,并利用社會(huì)不穩(wěn)定情緒引導(dǎo)受眾目標(biāo)的價(jià)值取向,分裂公眾原有的社會(huì)共識(shí),危害國(guó)家安全。

另一方面,生成式人工智能將加速國(guó)家數(shù)字?jǐn)?shù)據(jù)基礎(chǔ)設(shè)施戰(zhàn)略向“預(yù)測(cè)”轉(zhuǎn)變,技術(shù)的政治嵌入性、算法的政治預(yù)測(cè)性、數(shù)據(jù)的政治應(yīng)用性將在生成式人工智能加持下改變政治生態(tài)。國(guó)家治理邏輯轉(zhuǎn)向預(yù)測(cè)、先發(fā)制人和“模擬未來(lái)”,國(guó)家傾向于從數(shù)據(jù)中“了解”公民,并將決策交給機(jī)器學(xué)習(xí)。操縱者在大模型建構(gòu)中可通過(guò)數(shù)據(jù)污染、算法黑箱等形式干擾國(guó)家政治決策。

(二)基于技術(shù)應(yīng)用的數(shù)據(jù)安全風(fēng)險(xiǎn)

人工智能訓(xùn)練數(shù)據(jù)安全是一個(gè)重要問(wèn)題。數(shù)據(jù)層的風(fēng)險(xiǎn)多表現(xiàn)為數(shù)據(jù)違規(guī)爬取、合成數(shù)據(jù)違規(guī)使用、人工標(biāo)注數(shù)據(jù)歧視及敏感數(shù)據(jù)存儲(chǔ)安全等。為形成接近于人類語(yǔ)言的語(yǔ)言模型,生成式人工智能訓(xùn)練的數(shù)據(jù)量多達(dá)上萬(wàn)億,并不斷實(shí)現(xiàn)監(jiān)督學(xué)習(xí)、人工糾錯(cuò)、強(qiáng)化學(xué)習(xí)、進(jìn)行對(duì)話模擬等過(guò)程。訓(xùn)練數(shù)據(jù)包括大量個(gè)人數(shù)據(jù)、行業(yè)數(shù)據(jù)甚至國(guó)家數(shù)據(jù)等重要且敏感的數(shù)據(jù),并且在被使用的過(guò)程中不斷收集使用者相關(guān)數(shù)據(jù)信息。這些數(shù)據(jù)同樣面臨跨境數(shù)據(jù)流動(dòng)問(wèn)題。國(guó)家和國(guó)際層面的跨境數(shù)據(jù)流動(dòng)政策不僅會(huì)影響貿(mào)易、創(chuàng)新和經(jīng)濟(jì)進(jìn)步,還會(huì)影響與數(shù)字化成果分配、人權(quán)、執(zhí)法等與國(guó)家安全相關(guān)的一系列問(wèn)題。

(三)基于大模型的算法安全風(fēng)險(xiǎn)

基于大模型的生成式人工智能也帶來(lái)了算法透明度低、算法歧視影響社會(huì)公平、算法歸責(zé)存在困境等問(wèn)題。在算法可解釋性方面,大模型技術(shù)的可解釋性將徹底顛覆以算法透明為內(nèi)核構(gòu)建而成的算法治理體系。生成式人工智能的技術(shù)公司是規(guī)則制定者與規(guī)則執(zhí)行者,可以憑借技術(shù)優(yōu)勢(shì)人為構(gòu)建“運(yùn)行黑箱”,導(dǎo)致算法運(yùn)行過(guò)程難以被監(jiān)控,進(jìn)一步加劇信息不對(duì)稱。盡管生成式人工智能模型在很多任務(wù)上表現(xiàn)出色,但是其復(fù)雜的內(nèi)部工作機(jī)制使模型解釋性變得困難。這可能導(dǎo)致在模型出現(xiàn)問(wèn)題時(shí)難以定位原因,增加了算法歸責(zé)的難度。如果生成式人工智能模型依賴的大量訓(xùn)練數(shù)據(jù)存在偏差,就會(huì)導(dǎo)致模型在某些特定領(lǐng)域的預(yù)測(cè)結(jié)果存在偏差,從而影響算法的公平性和準(zhǔn)確性。

二、主要國(guó)家和地區(qū)的生成式人工智能監(jiān)管實(shí)踐

以美國(guó)、歐盟、英國(guó)和中國(guó)為代表的國(guó)家和地區(qū),均針對(duì)生成式人工智能提出了相異的監(jiān)管方法,形成了不同的監(jiān)管類型。

(一)技術(shù)審查思路

部分國(guó)家和地區(qū)采用技術(shù)審查措施,重點(diǎn)關(guān)注生成式人工智能的安全性風(fēng)險(xiǎn)。技術(shù)審查是確保生成式人工智能系統(tǒng)安全、可靠和合法的關(guān)鍵環(huán)節(jié),主要目的是評(píng)估生成式人工智能系統(tǒng)的技術(shù)性能、安全性、可靠性及合規(guī)性,確保人工智能系統(tǒng)不會(huì)對(duì)用戶造成傷害或侵犯用戶隱私權(quán)益。技術(shù)審查涵蓋多個(gè)方面,主要包括數(shù)據(jù)安全與隱私保護(hù)、模型訓(xùn)練與優(yōu)化、算法設(shè)計(jì)與實(shí)現(xiàn)、系統(tǒng)集成與測(cè)試等。技術(shù)審查也應(yīng)考慮人工智能系統(tǒng)在各種應(yīng)用場(chǎng)景的性能表現(xiàn)、安全風(fēng)險(xiǎn)及合規(guī)要求。

美國(guó)政府在 2022 年 10 月發(fā)布了《人工智能權(quán)利法案藍(lán)圖》(Blueprint for an AI Bill of Right),旨在指導(dǎo)自動(dòng)化系統(tǒng)的設(shè)計(jì)、使用和部署,保護(hù)美國(guó)公眾個(gè)人數(shù)據(jù)不被人工智能算法濫用。2023 年 1 月,美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)發(fā)布了《人工智能風(fēng)險(xiǎn)管理框架》(AI RMF),旨在指導(dǎo)機(jī)構(gòu)組織在開發(fā)和部署人工智能系統(tǒng)時(shí)降低安全風(fēng)險(xiǎn),確保人工智能的穩(wěn)健性、安全性和道德性。然而,這些政策措施并沒(méi)有完全消除業(yè)界和學(xué)界對(duì)人工智能技術(shù)可能造成危害的擔(dān)憂。2023 年 3 月,埃隆·馬斯克(Elon Musk)等千名業(yè)界和學(xué)界人士聯(lián)署公開信,呼吁所有人工智能實(shí)驗(yàn)室立即暫停訓(xùn)練比 GPT-4 更強(qiáng)大的人工智能系統(tǒng),暫停至少 6 個(gè)月,以便制定和實(shí)施安全協(xié)議。2023 年 4 月,美國(guó)科技倫理組織人工智能和數(shù)字政策中心(CAIDP)要求美國(guó)聯(lián)邦貿(mào)易委員會(huì)(FTC)阻止 OpenAI 發(fā)布新的 GPT-4 商用版本,理由是 GPT-4“有偏見性,欺騙性,對(duì)隱私和公共安全構(gòu)成風(fēng)險(xiǎn)”。2023 年 4 月,出于對(duì)人工智能技術(shù)可能造成危害的擔(dān)憂,拜登政府已開始研究是否需要對(duì) ChatGPT 等人工智能工具進(jìn)行審查。美國(guó)商務(wù)部的國(guó)家電信和信息管理局(NTIA)就 ChatGPT 等人工智能工具監(jiān)管措施公開征求意見,收集的公眾意見將提供給白宮,確保聯(lián)邦政府對(duì)人工智能相關(guān)風(fēng)險(xiǎn)和機(jī)遇采取統(tǒng)一而全面的措施。

除美國(guó)外,僅在 2023 年 4 月就有多個(gè)國(guó)家出臺(tái)了關(guān)于生成式人工智能及其應(yīng)用工具的審查性政策。4 月 4 日,加拿大隱私專員辦公室宣布,將對(duì) ChatGPT 背后的公司 OpenAI 展開調(diào)查,調(diào)查的原因是其涉嫌“未經(jīng)同意收集、使用和披露個(gè)人信息”。美國(guó)路透社 4 月 11 日消息,法國(guó)網(wǎng)絡(luò)國(guó)家信息自由委員會(huì)(CNIL)表示,正在調(diào)查有關(guān) ChatGPT 的幾起投訴。4 月 13 日,西班牙數(shù)據(jù)保護(hù)局(AEPD)要求歐洲數(shù)據(jù)保護(hù)委員會(huì)(EDBP)評(píng)估關(guān)于美國(guó) OpenAI 公司 ChatGPT 的隱私問(wèn)題。5 月 11 日,美洲數(shù)據(jù)保護(hù)網(wǎng)絡(luò)(RIPD)提議在行使其職權(quán)時(shí)對(duì)生成式人工智能服務(wù)啟動(dòng)監(jiān)督工作,并將在網(wǎng)絡(luò)框架內(nèi)開展協(xié)調(diào)行動(dòng)。RIPD 是一個(gè)由該地區(qū) 12 個(gè)國(guó)家的 16 個(gè)數(shù)據(jù)保護(hù)機(jī)構(gòu)組成的論壇,目標(biāo)是促進(jìn)和保障個(gè)人數(shù)據(jù)保護(hù)的基本權(quán)利,常設(shè)秘書處設(shè)在西班牙數(shù)據(jù)保護(hù)局。

(二)技術(shù)禁用對(duì)策

除技術(shù)審查思路外,部分國(guó)家和地區(qū)采用更為直接和強(qiáng)制的技術(shù)禁用對(duì)策。所謂技術(shù)禁用是指直接通過(guò)行政指令、法律程序等形式在特定主權(quán)領(lǐng)域內(nèi)禁止使用生成式人工智能應(yīng)用的對(duì)策形式。技術(shù)禁用可以暫時(shí)遏制生成式人工智能所帶來(lái)的即時(shí)性風(fēng)險(xiǎn),發(fā)現(xiàn)并解決潛在的問(wèn)題,從而保障人工智能系統(tǒng)的可靠性和安全性。

作為歐洲最嚴(yán)格的人工智能監(jiān)管國(guó)家,意大利成為全球首個(gè)禁用 ChatGPT 的國(guó)家。2023 年 3 月 30 日,意大利個(gè)人數(shù)據(jù)保護(hù)局發(fā)布公告,禁止使用 ChatGPT,并限制 OpenAI 處理意大利用戶的個(gè)人信息,同時(shí)啟動(dòng)對(duì)該公司的調(diào)查。意大利個(gè)人數(shù)據(jù)保護(hù)局指出,ChatGPT 違反了《通用數(shù)據(jù)保護(hù)條例》(GDPR)規(guī)定,因?yàn)樗唇?jīng)用戶同意就收集和使用了他們的個(gè)人數(shù)據(jù),同時(shí)未提供足夠的透明度和可解釋性信息,也未保證數(shù)據(jù)的安全性和質(zhì)量。4 月 12 日,意大利個(gè)人數(shù)據(jù)保護(hù)局表示,OpenAI 若要解禁 ChatGPT,需在 4 月 30 日前在網(wǎng)站上說(shuō)明 ChatGPT 數(shù)據(jù)運(yùn)用原理和方式,要求意大利用戶確認(rèn)自己年滿 18 歲,出臺(tái)技術(shù)方案允許用戶和非用戶糾正或刪除 ChatGPT 產(chǎn)出的錯(cuò)誤信息,并在 5 月 15 日前開展宣傳活動(dòng),告知公眾將使用個(gè)人數(shù)據(jù)訓(xùn)練算法,在 9 月 30 日前需采取禁止 13 歲以下用戶和確保 13 歲至 18 歲用戶獲得父母同意的措施。

2023 年 4 月 21 日,德國(guó)人工智能工作組負(fù)責(zé)人Dieter Kugelmann 表示,德國(guó)監(jiān)管機(jī)構(gòu)將對(duì) OpenAI 的隱私實(shí)踐和歐盟通用數(shù)據(jù)保護(hù)條例合規(guī)性展開調(diào)查,可能會(huì)效仿意大利,暫時(shí)禁用 ChatGPT,原因同樣是數(shù)據(jù)安全問(wèn)題。德國(guó)監(jiān)管機(jī)構(gòu)認(rèn)為,《通用數(shù)據(jù)保護(hù)條例》對(duì) OpenAI 和 ChatGPT 構(gòu)成了重大挑戰(zhàn),ChatGPT 可能侵犯了用戶的隱私權(quán)和知情權(quán),而且可能產(chǎn)生誤導(dǎo)性或有害性的內(nèi)容,對(duì)公共秩序和民主制度構(gòu)成威脅。

(三)制度化技術(shù)監(jiān)管方法

技術(shù)審查和技術(shù)暫用的監(jiān)管實(shí)踐,體現(xiàn)為應(yīng)對(duì)生成式人工智能突然大規(guī)模應(yīng)用的臨時(shí)性措施。制度監(jiān)管則是通過(guò)制定和完善相關(guān)法規(guī)、政策和標(biāo)準(zhǔn),規(guī)范生成式人工智能的使用和管理,從而實(shí)現(xiàn)對(duì)人工智能的有效監(jiān)管。

為促進(jìn)生成式人工智能技術(shù)健康發(fā)展和規(guī)范應(yīng)用,根據(jù)《網(wǎng)絡(luò)安全法》等法律法規(guī),中國(guó)在 4 月 11 日發(fā)布了《生成式人工智能服務(wù)管理辦法(征求意見稿)》,并于 7 月 10 日正式發(fā)布《生成式人工智能服務(wù)管理暫行辦法》。該管理辦法指出,利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)真實(shí)準(zhǔn)確,相關(guān)服務(wù)提供方應(yīng)向國(guó)家網(wǎng)信部門申報(bào)安全評(píng)估,采取措施防止生成虛假信息。該管理辦法將生成式人工智能的監(jiān)管重點(diǎn)置于服務(wù)提供層,放寬了對(duì)技術(shù)研發(fā)的監(jiān)管限制。

4 月 27 日,歐洲議會(huì)就《人工智能法案》(The AI Act)提案達(dá)成臨時(shí)政治協(xié)議。該法案要求部署 ChatGPT 等生成式人工智能工具的公司披露用于開發(fā)其系統(tǒng)的受版權(quán)保護(hù)的材料。該法案對(duì)生成式人工智能的透明性做出初步要求,例如要求披露信息是由人工智能生成的情況、算法框架應(yīng)謹(jǐn)防非法內(nèi)容生成以及公開用于算法訓(xùn)練的數(shù)據(jù)版權(quán)。6 月 14 日,歐洲議會(huì)投票通過(guò)了《人工智能法案》草案。之后,歐洲議會(huì)、歐盟委員會(huì)和成員國(guó)將就該法案最終條款進(jìn)行談判磋商。

三、生成式人工智能的監(jiān)管挑戰(zhàn)

由于生成式人工智能技術(shù)的顛覆性和創(chuàng)造性,如何實(shí)現(xiàn)技術(shù)的有效監(jiān)管仍是對(duì)現(xiàn)有監(jiān)管制度的挑戰(zhàn)。各國(guó)均采取措施積極應(yīng)對(duì),美國(guó)采取技術(shù)治理路徑,歐盟采取風(fēng)險(xiǎn)管理路徑,中國(guó)采取制度化技術(shù)監(jiān)管方法,既有制度創(chuàng)新,也保持了監(jiān)管體系統(tǒng)一,既重視內(nèi)容安全,又注重發(fā)展和安全的統(tǒng)一。但是,各國(guó)監(jiān)管措施仍表現(xiàn)出臨時(shí)性、應(yīng)急性特點(diǎn),主要目的是遏制技術(shù)“過(guò)熱”對(duì)數(shù)據(jù)安全、信息權(quán)利造成風(fēng)險(xiǎn)。雖然從監(jiān)管功能實(shí)現(xiàn)而言,技術(shù)審查和技術(shù)禁用等措施,在短時(shí)期可以在很大程度上遏制生成式人工智能的恣意濫用,但是從技術(shù)發(fā)展的長(zhǎng)遠(yuǎn)角度考慮,應(yīng)建立長(zhǎng)效化、專門化的法律制度體系,實(shí)現(xiàn)對(duì)生成式人工智能的有效監(jiān)管。

一是現(xiàn)有網(wǎng)絡(luò)信息安全責(zé)任分配思路無(wú)法適應(yīng)生成式人工智能應(yīng)用的基本模式。網(wǎng)絡(luò)平臺(tái)監(jiān)管思路強(qiáng)調(diào)“網(wǎng)站平臺(tái)信息內(nèi)容管理主體責(zé)任”,網(wǎng)絡(luò)平臺(tái)管理者有義務(wù)審核平臺(tái)信息的真實(shí)性、準(zhǔn)確性。這是與其網(wǎng)絡(luò)信息傳播渠道的基本定位相契合的歸責(zé)思路。但是,生成式人工智能服務(wù)提供者是依據(jù)用戶需求創(chuàng)制新內(nèi)容,扮演的角色是“網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者”,因而生成式人工智能難以執(zhí)行信息傳播任務(wù)。AIGC 的用途由用戶決定,可以用于學(xué)習(xí)、科研等公益目的,也可以被用于制造虛假輿論。《生成式人工智能服務(wù)管理暫行辦法》第十四條規(guī)定:“提供者發(fā)現(xiàn)違法內(nèi)容的,應(yīng)當(dāng)及時(shí)采取停止生成、停止傳輸、消除等處置措施,采取模型優(yōu)化訓(xùn)練等措施進(jìn)行整改,并向有關(guān)主管部門報(bào)告。”這在實(shí)質(zhì)上是要求生成式人工智能服務(wù)提供者承擔(dān) AIGC 的合法性審查責(zé)任,與網(wǎng)絡(luò)平臺(tái)責(zé)任分配思路保持相似,卻與技術(shù)應(yīng)用范式不同。因此,亟需以“網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責(zé)任”為基點(diǎn),提出更為詳盡具體的監(jiān)管措施。

二是對(duì)監(jiān)管體系的技術(shù)挑戰(zhàn)。現(xiàn)階段,人工智能及生成式人工智能的監(jiān)管模式均將重點(diǎn)置于監(jiān)管組織建設(shè)、責(zé)任分配和違法責(zé)任追究等制度性議題,所提出的如數(shù)據(jù)版權(quán)、算法透明性和備案規(guī)則也并未就此類“平民化”的深度偽造風(fēng)險(xiǎn)提出應(yīng)對(duì)措施。

三是對(duì)現(xiàn)有立法模式的挑戰(zhàn)。生成式人工智能監(jiān)管的復(fù)雜性,挑戰(zhàn)現(xiàn)有立法模式。從監(jiān)管法律制度建構(gòu)而言,如“禁止生成式人工智能濫用”“禁止生成虛假、暴力、色情等非法 AIGC”的簡(jiǎn)單表述,實(shí)質(zhì)上僅完成了宣示性的法律文本建構(gòu)工作,并未有效遏制生成式人工智能的諸多風(fēng)險(xiǎn)。生成式人工智能技術(shù)關(guān)涉數(shù)據(jù)安全、算法公正和算力保障等議題,又牽涉網(wǎng)絡(luò)謠言、網(wǎng)絡(luò)暴力和虛假信息治理多方位因素。現(xiàn)有立法體系亟需以更加技術(shù)性的立法模式,建構(gòu)生成式人工智能的監(jiān)管體系。

四、以“一體多元”為監(jiān)管對(duì)象的風(fēng)險(xiǎn)應(yīng)對(duì)

雖然世界主要國(guó)家和地區(qū)依據(jù)生成式人工智能應(yīng)用現(xiàn)狀提出了臨時(shí)性或暫時(shí)性的監(jiān)管措施,但是從監(jiān)管措施的長(zhǎng)效化、法治化角度出發(fā),仍需明確生成式人工智能監(jiān)管對(duì)象,只有明確生成式人工智能的監(jiān)管對(duì)象,有關(guān)監(jiān)管措施才可以依據(jù)對(duì)象要素提出有針對(duì)性且體系化的監(jiān)管方法。從生成式人工智能的技術(shù)樣態(tài)及其社會(huì)應(yīng)用模式出發(fā),其監(jiān)管對(duì)象表現(xiàn)出“一體多元”的基本樣態(tài),需要以算法、算力和數(shù)據(jù)等技術(shù)要素為本位,結(jié)合技術(shù)社會(huì)應(yīng)用所制造的多元化現(xiàn)實(shí)風(fēng)險(xiǎn),提出更具有針對(duì)性的監(jiān)管對(duì)策。

所謂“一體”,是指以生成式人工智能的技術(shù)樣態(tài)為本位,將監(jiān)管對(duì)象確定為生成式人工智能的底層要素,即算法、算力和數(shù)據(jù)。從算法角度看,監(jiān)管制度應(yīng)以維護(hù)算法公正性為目的,制定諸如生成式算法備案、算法訓(xùn)練和算法糾偏機(jī)制等規(guī)則。從數(shù)據(jù)角度看,監(jiān)管制度應(yīng)著重遏制生成式人工智能恣意收集用戶數(shù)據(jù),或數(shù)據(jù)導(dǎo)入不完全、不真實(shí)的情況,特別是對(duì)網(wǎng)絡(luò)信息質(zhì)量進(jìn)行專項(xiàng)治理,保證 AIGC 信息的真實(shí)性。算力作為生成式人工智能運(yùn)行和發(fā)展的底層“燃料”,不宜從技術(shù)發(fā)展角度進(jìn)行限制,但是可以作為遏制生成式人工智能嚴(yán)重風(fēng)險(xiǎn)的應(yīng)急手段。換句話說(shuō),在生成式人工智能的發(fā)展或應(yīng)用范式對(duì)國(guó)家安全產(chǎn)生重大影響時(shí),可以通過(guò)必要的算力限制規(guī)則從底層抽離技術(shù)恣意的風(fēng)險(xiǎn)。

所謂“多元”,是指對(duì)生成式人工智能的社會(huì)應(yīng)用樣態(tài)進(jìn)行動(dòng)態(tài)式的監(jiān)管。目前,生成式人工智能的主要應(yīng)用模式是人機(jī)交互生成圖片、文字等信息,技術(shù)應(yīng)用主要停留在信息生成階段。從技術(shù)發(fā)展趨勢(shì)和應(yīng)用潛能看,生成式人工智能與社會(huì)交融的方式和渠道仍難以預(yù)測(cè)。例如,有學(xué)者總結(jié)了現(xiàn)階段主流的生成式人工智能算法模型,包括代碼生成功能的 Codex 模型、視頻合成功能的 Phenaki 模型,以及控制智能機(jī)器人的 GATO 模型等。

可以說(shuō),生成式人工智能擁有廣闊的應(yīng)用前景和可能性,有關(guān)監(jiān)管制度應(yīng)著眼于現(xiàn)階段生成式人工智能及 AIGC 所制造的現(xiàn)實(shí)風(fēng)險(xiǎn),解決多元多樣且現(xiàn)實(shí)存在的重點(diǎn)問(wèn)題,包括生成式人工智能平臺(tái)責(zé)任厘清和監(jiān)管、AIGC 內(nèi)容真實(shí)性核查等問(wèn)題。此外,有關(guān)監(jiān)管機(jī)構(gòu)應(yīng)建立生成式人工智能技術(shù)風(fēng)險(xiǎn)的動(dòng)態(tài)研判機(jī)制,對(duì)生成式人工智能的風(fēng)險(xiǎn)進(jìn)行實(shí)時(shí)監(jiān)測(cè),保障監(jiān)管機(jī)制的動(dòng)態(tài)調(diào)整。【本文系國(guó)家社科基金重大項(xiàng)目網(wǎng)絡(luò)信息安全監(jiān)管法治體系構(gòu)建研究(21&ZD193)階段性成果】

(本文刊登于《中國(guó)信息安全》雜志2023年第8期)

來(lái)源:中國(guó)信息安全

上一篇:2023年勒索軟件威脅態(tài)勢(shì):從加密數(shù)據(jù)向無(wú)加密攻擊演變

下一篇:國(guó)際專業(yè)技術(shù)機(jī)構(gòu)IEEE成員提出減輕衛(wèi)星系統(tǒng)風(fēng)險(xiǎn)的網(wǎng)絡(luò)安全框架