2023年5月16,CNIL發(fā)布了一份人工智能行動計劃,內容分為四個方面:
1. 了解人工智能系統(tǒng)的運作及其對個人的影響;
2. 支持和監(jiān)管尊重隱私的人工智能的發(fā)展;
3. 整合和支持法國和歐洲生態(tài)系統(tǒng)中的創(chuàng)新者;
4. 審計和監(jiān)控人工智能系統(tǒng),保護個人。
考慮到保護個人數(shù)據(jù)是設計和使用生成式人工智能、大型語言模型和相關應用(尤其是聊天機器人)工具的一個重大問題,CNIL發(fā)布了旨在規(guī)范生成式人工智能開發(fā)等方面的行動計劃。該計劃是基于CNIL多年來對人工智能所涉及的數(shù)據(jù)保護和個人自由問題的相關研究。自2017年發(fā)布有關算法和人工智能的倫理問題的報告以來,CNIL已經(jīng)多次就新技術所帶來的問題發(fā)表聲明。
近幾個月以來,生成式人工智能在文本和會話領域迅速發(fā)展,大型語言模型(Large Language Models or LLMs),如GPT-3、BLOOM或Megatron NLG以及派生的聊天機器人(ChatGPT或Bard)相繼出現(xiàn)。此外,它還在圖像(Dall-E、Midjourney、Stable Diffusion等)和語音(Vall-E)領域得到了廣泛應用。
這些基礎模型(Foundation models)及基于此建立的技術組件已經(jīng)在各個領域有了許多應用案例。然而,對于它們的運作、可能性和局限性以及圍繞它們的開發(fā)和使用的法律、倫理和技術問題仍然存在廣泛的爭議。
因此,考慮到保護個人數(shù)據(jù)對于設計和使用這些工具的重大意義,CNIL公布了旨在規(guī)范生成式人工智能開發(fā)等方面的行動計劃。
什么是生成式人工智能?
生成式人工智能是一種能夠根據(jù)用戶的指令創(chuàng)建文本、圖像或其他內容(如音樂、視頻、聲音等)的系統(tǒng)。這些系統(tǒng)可以利用訓練數(shù)據(jù)生成新的內容。由于使用了大量數(shù)據(jù)進行訓練,因此它們的表現(xiàn)已經(jīng)接近于人類的創(chuàng)作能力。然而,為了獲得預期的結果,這些系統(tǒng)需要用戶明確指定他們的需求。因此,圍繞用戶請求的設計方面也出現(xiàn)了真正的專業(yè)技能(prompt engineering)。
例如,下面這張名為“太空歌劇院”的圖片就是由用戶Jason M. Allen基于文字說明(包括舞臺裝置、長袍、藝術靈感等)在Midjourney工具上生成的。
版權歸屬:Jason M. Allen(2022)
四個方面的行動計劃
多年來,CNIL一直在開展工作,以預見和應對人工智能及其不同形式(分類、預測、內容生成等)和不同用途所帶來的挑戰(zhàn)。
面對涉及保護自由、加速人工智能和與生成式人工智能有關的現(xiàn)狀,智能技術監(jiān)管是CNIL行動的主要方向。CNIL的工作圍繞著四個目標來展開:
1.了解AI系統(tǒng)的運作方式及其對個人的影響;
2.允許和規(guī)范尊重個人數(shù)據(jù)的AI的發(fā)展;
3.集成和支持法國和歐洲AI生態(tài)系統(tǒng)的創(chuàng)新者;
4.審計和監(jiān)控AI系統(tǒng),并保護個人。
01?了解AI系統(tǒng)的運作方式及其對個人的影響
用于設計和運行AI工具的創(chuàng)新技術提出了有關數(shù)據(jù)保護的新問題,尤其包括:
這些方面將成為智能技術服務和CNIL數(shù)字創(chuàng)新實驗室(LINC)的優(yōu)先工作方向之一。
LINC的文件
為了突出生成式人工智能所面臨的某些特定挑戰(zhàn),CNIL數(shù)字創(chuàng)新實驗室(LINC)發(fā)布了一份專門介紹生成式人工智能的文件。該文件包括四個部分,具體如下:
這份文件補充了CNIL網(wǎng)站上為專業(yè)人士和大眾提供的資源。
02?允許和規(guī)范尊重個人數(shù)據(jù)的AI的發(fā)展
許多機構向法國國家信息與自由委員會(CNIL)表達了對將《通用數(shù)據(jù)保護條例》(GDPR)應用于人工智能,特別是生成式人工智能訓練的不確定性。
為了協(xié)助人工智能領域的各方并為歐盟“AI條例”(正在歐盟討論中)的實施做好準備,CNIL已經(jīng)展開以下工作:
CNIL將繼續(xù)進行學術研究,并即將發(fā)布多個文件。因此:
CNIL將很快提交一份關于共享和重復使用數(shù)據(jù)適用規(guī)則的指南的公開咨詢。這些工作將特別涉及到在互聯(lián)網(wǎng)上自由獲取數(shù)據(jù)并用于多種AI模型的問題。該指南因此將針對用于設計生成式AI系統(tǒng)的數(shù)據(jù)處理的一部分。
CNIL還將繼續(xù)研究人工智能系統(tǒng)的設計和機器學習數(shù)據(jù)庫的建立。這些研究將自2023年夏天開始,在已經(jīng)與多個利益相關者進行協(xié)商后,形成幾個文件,并提出具體建議,特別是在ChatGPT等AI系統(tǒng)的設計方面。
未來,CNIL還將逐步討論以下主題:
03?“聯(lián)合并協(xié)助法國和歐洲AI生態(tài)系統(tǒng)的創(chuàng)新者”
CNIL的AI監(jiān)管旨在推動并幫助那些在法國和歐洲價值觀保護框架下發(fā)展壯大的創(chuàng)新者。這個已經(jīng)啟動的協(xié)助工作采取了三種形式:
總而言之,CNIL希望與研究團隊、研發(fā)中心和法國開發(fā)或希望開發(fā)AI系統(tǒng)的企業(yè)展開充分的對話,以確保符合個人數(shù)據(jù)保護規(guī)則。這些研究團隊和企業(yè)可以通過ia@cnil.fr與CNIL聯(lián)系。
04?審計和監(jiān)控AI系統(tǒng)并保護個人
為了在尊重個人權利和自由的前提下開發(fā)人工智能系統(tǒng)的框架,必須在下游進行監(jiān)控,確保CNIL的合規(guī)性。因此,CNIL至關重要的是開發(fā)一種工具,既能夠事先受理AI系統(tǒng)的審計,也能夠事后受理。
2023年,CNIL的監(jiān)督行動將主要關注以下方面:
CNIL將特別關注個人處理數(shù)據(jù)的行為者是否已經(jīng):
通過這項關鍵的協(xié)作工作,CNIL希望制定明確的規(guī)則,保護歐洲公民的個人數(shù)據(jù),以促進尊重隱私的AI系統(tǒng)的發(fā)展。
來源:數(shù)據(jù)信任與治理