亚洲日本免费-啊轻点灬太粗太长了三男一女-麻豆av电影在线观看-日韩一级片毛片|www.grbbt.com

法國CNIL發(fā)布人工智能行動計劃

2023年5月16,CNIL發(fā)布了一份人工智能行動計劃,內容分為四個方面:

1. 了解人工智能系統(tǒng)的運作及其對個人的影響;

2. 支持和監(jiān)管尊重隱私的人工智能的發(fā)展;

3. 整合和支持法國和歐洲生態(tài)系統(tǒng)中的創(chuàng)新者;

4. 審計和監(jiān)控人工智能系統(tǒng),保護個人。

考慮到保護個人數(shù)據(jù)是設計和使用生成式人工智能、大型語言模型和相關應用(尤其是聊天機器人)工具的一個重大問題,CNIL發(fā)布了旨在規(guī)范生成式人工智能開發(fā)等方面的行動計劃。該計劃是基于CNIL多年來對人工智能所涉及的數(shù)據(jù)保護和個人自由問題的相關研究。自2017年發(fā)布有關算法和人工智能的倫理問題的報告以來,CNIL已經(jīng)多次就新技術所帶來的問題發(fā)表聲明。

近幾個月以來,生成式人工智能在文本和會話領域迅速發(fā)展,大型語言模型(Large Language Models or LLMs),如GPT-3、BLOOM或Megatron NLG以及派生的聊天機器人(ChatGPT或Bard)相繼出現(xiàn)。此外,它還在圖像(Dall-E、Midjourney、Stable Diffusion等)和語音(Vall-E)領域得到了廣泛應用。

這些基礎模型(Foundation models)及基于此建立的技術組件已經(jīng)在各個領域有了許多應用案例。然而,對于它們的運作、可能性和局限性以及圍繞它們的開發(fā)和使用的法律、倫理和技術問題仍然存在廣泛的爭議。

因此,考慮到保護個人數(shù)據(jù)對于設計和使用這些工具的重大意義,CNIL公布了旨在規(guī)范生成式人工智能開發(fā)等方面的行動計劃。

什么是生成式人工智能?

生成式人工智能是一種能夠根據(jù)用戶的指令創(chuàng)建文本、圖像或其他內容(如音樂、視頻、聲音等)的系統(tǒng)。這些系統(tǒng)可以利用訓練數(shù)據(jù)生成新的內容。由于使用了大量數(shù)據(jù)進行訓練,因此它們的表現(xiàn)已經(jīng)接近于人類的創(chuàng)作能力。然而,為了獲得預期的結果,這些系統(tǒng)需要用戶明確指定他們的需求。因此,圍繞用戶請求的設計方面也出現(xiàn)了真正的專業(yè)技能(prompt engineering)。

例如,下面這張名為“太空歌劇院”的圖片就是由用戶Jason M. Allen基于文字說明(包括舞臺裝置、長袍、藝術靈感等)在Midjourney工具上生成的。

版權歸屬:Jason M. Allen(2022)

四個方面的行動計劃

多年來,CNIL一直在開展工作,以預見和應對人工智能及其不同形式(分類、預測、內容生成等)和不同用途所帶來的挑戰(zhàn)。

面對涉及保護自由、加速人工智能和與生成式人工智能有關的現(xiàn)狀,智能技術監(jiān)管是CNIL行動的主要方向。CNIL的工作圍繞著四個目標來展開:

1.了解AI系統(tǒng)的運作方式及其對個人的影響;

2.允許和規(guī)范尊重個人數(shù)據(jù)的AI的發(fā)展;

3.集成和支持法國和歐洲AI生態(tài)系統(tǒng)的創(chuàng)新者;

4.審計和監(jiān)控AI系統(tǒng),并保護個人。

01?了解AI系統(tǒng)的運作方式及其對個人的影響

用于設計和運行AI工具的創(chuàng)新技術提出了有關數(shù)據(jù)保護的新問題,尤其包括:

  • 這些工具所需數(shù)據(jù)處理的誠信和透明度;
  • 公開訪問網(wǎng)絡數(shù)據(jù)的保護,以防止數(shù)據(jù)采集或“爬取”用于此類工具的情況;
  • 用戶在使用這些工具時傳輸?shù)臄?shù)據(jù)的保護,從通過接口進行的收集到潛在重新使用,以及由機器學習算法處理的數(shù)據(jù);
  • 對個人數(shù)據(jù)權利的影響,無論是對于為建立模型而收集的數(shù)據(jù)還是對于作為生成式人工智能產(chǎn)生的內容提供的數(shù)據(jù)等;
  • 防止可能發(fā)生的偏見和歧視;
  • 這些工具的未知安全挑戰(zhàn)。

這些方面將成為智能技術服務和CNIL數(shù)字創(chuàng)新實驗室(LINC)的優(yōu)先工作方向之一。

LINC的文件

為了突出生成式人工智能所面臨的某些特定挑戰(zhàn),CNIL數(shù)字創(chuàng)新實驗室(LINC)發(fā)布了一份專門介紹生成式人工智能的文件。該文件包括四個部分,具體如下:

  • 詳細介紹最近聊天機器人的技術功能,并強調數(shù)據(jù)在構建底層基礎模型中的核心作用;
  • 闡述了創(chuàng)建這些模型所提出的各種法律問題,包括知識產(chǎn)權和數(shù)據(jù)保護等;
  • 清晰闡明了生成式人工智能在信息可靠性、惡意使用以及檢測并警告公眾有關生成內容存在的意義倫理挑戰(zhàn);
  • 通過不同的實驗說明了這些工具可能帶來的積極或消極用途。

這份文件補充了CNIL網(wǎng)站上為專業(yè)人士和大眾提供的資源。

02?允許和規(guī)范尊重個人數(shù)據(jù)的AI的發(fā)展

許多機構向法國國家信息與自由委員會(CNIL)表達了對將《通用數(shù)據(jù)保護條例》(GDPR)應用于人工智能,特別是生成式人工智能訓練的不確定性。

為了協(xié)助人工智能領域的各方并為歐盟“AI條例”(正在歐盟討論中)的實施做好準備,CNIL已經(jīng)展開以下工作:

  • 2022年在cnil.fr上發(fā)布了關于人工智能的初步資料,其中包括有關人工智能的基本原則的教育內容和指南,以協(xié)助專業(yè)人士達成符合規(guī)定的目標;
  • 2022年還發(fā)布了一份有關使用“增強”視頻監(jiān)控(使用公共空間圖像的AI技術)的立場。

CNIL將繼續(xù)進行學術研究,并即將發(fā)布多個文件。因此:

CNIL將很快提交一份關于共享和重復使用數(shù)據(jù)適用規(guī)則的指南的公開咨詢。這些工作將特別涉及到在互聯(lián)網(wǎng)上自由獲取數(shù)據(jù)并用于多種AI模型的問題。該指南因此將針對用于設計生成式AI系統(tǒng)的數(shù)據(jù)處理的一部分。

CNIL還將繼續(xù)研究人工智能系統(tǒng)的設計和機器學習數(shù)據(jù)庫的建立。這些研究將自2023年夏天開始,在已經(jīng)與多個利益相關者進行協(xié)商后,形成幾個文件,并提出具體建議,特別是在ChatGPT等AI系統(tǒng)的設計方面。

未來,CNIL還將逐步討論以下主題:

  • 使用科學研究制度建立和重復使用訓練數(shù)據(jù)庫
  • 將最終原則應用于通用AI和基礎模型,例如大語言模型;
  • 明確構成數(shù)據(jù)庫的實體之間的責任共擔,那些從這些數(shù)據(jù)中開發(fā)模型的人和那些使用這些模型的人之間的責任共擔;
  • 在考慮到精確性和數(shù)據(jù)的最小化原則的情況下,適用于訓練數(shù)據(jù)選擇的規(guī)則和最佳實踐;
  • 管理人員權利,特別是訪問、更正和反對權利的規(guī)則;
  • 適用于保留期限的規(guī)則,特別是對于最復雜的訓練庫和模型的規(guī)則;
  • 最后,CNIL認識到人工智能系統(tǒng)引起的問題不僅止于其設計,還繼續(xù)就機器學習模型的使用和共享、預防和糾正偏見和歧視,以及AI系統(tǒng)的認證等倫理問題進行思考。

03?“聯(lián)合并協(xié)助法國和歐洲AI生態(tài)系統(tǒng)的創(chuàng)新者”

CNIL的AI監(jiān)管旨在推動并幫助那些在法國和歐洲價值觀保護框架下發(fā)展壯大的創(chuàng)新者。這個已經(jīng)啟動的協(xié)助工作采取了三種形式:

  • CNIL自兩年前開始推出了一個“沙盒”計劃,以協(xié)助創(chuàng)新項目和創(chuàng)新者,其中就包括基于AI的項目。2021年針對健康領域的“沙盒”(共12個項目),2022年針對教育領域的“沙盒”(共10個項目)提供了專業(yè)建議,為這些領域內的AI創(chuàng)新者提供適當?shù)闹笇АNIL將很快開放2023年的新一輪“沙盒”項目申請,重點關注公共領域中人工智能的應用;
  • CNIL啟動了一個特定的協(xié)助計劃,以協(xié)助“增強”視頻監(jiān)控供應商參與法律規(guī)定的2024年奧運會和殘奧會實驗計劃;
  • 最后,CNIL在2023年開放了一個新的“強化協(xié)助”計劃,以協(xié)助創(chuàng)新企業(yè)符合GDPR規(guī)定。該計劃的首批得主是AI領域內的創(chuàng)新企業(yè)。

總而言之,CNIL希望與研究團隊、研發(fā)中心和法國開發(fā)或希望開發(fā)AI系統(tǒng)的企業(yè)展開充分的對話,以確保符合個人數(shù)據(jù)保護規(guī)則。這些研究團隊和企業(yè)可以通過ia@cnil.fr與CNIL聯(lián)系。

04?審計和監(jiān)控AI系統(tǒng)并保護個人

為了在尊重個人權利和自由的前提下開發(fā)人工智能系統(tǒng)的框架,必須在下游進行監(jiān)控,確保CNIL的合規(guī)性。因此,CNIL至關重要的是開發(fā)一種工具,既能夠事先受理AI系統(tǒng)的審計,也能夠事后受理。

2023年,CNIL的監(jiān)督行動將主要關注以下方面:

  • 公共和私營機構遵守于2022年發(fā)布的“增強”視頻監(jiān)控使用立場;例如,針對社會保險欺詐的打擊之類的AI技術的使用,考慮到使用此類算法所涉及的問題;
  • 處理向CNIL提交的投訴。盡管培訓和使用生成AI的法律框架需要得到澄清,CNIL將致力于處理已經(jīng)提交的投訴。特別地,CNIL已收到針對OpenAI公司管理的ChatGPT服務的多項投訴,并已啟動了一項監(jiān)管程序。同時,在歐洲數(shù)據(jù)保護委員會(EDPB)內設立了一個專門的工作組,以確保歐洲當局的協(xié)調行動,并對OpenAI工具實施的數(shù)據(jù)處理進行協(xié)調分析。

CNIL將特別關注個人處理數(shù)據(jù)的行為者是否已經(jīng):

  • 進行了數(shù)據(jù)保護影響評估(DPIA),以記錄風險并采取減少其風險的措施;
  • 采取了向個人提供信息的措施;
  • 預見了適合這個特定背景的個人權利行使措施。

通過這項關鍵的協(xié)作工作,CNIL希望制定明確的規(guī)則,保護歐洲公民的個人數(shù)據(jù),以促進尊重隱私的AI系統(tǒng)的發(fā)展。

來源:數(shù)據(jù)信任與治理

上一篇:美國大型IT分銷商遭勒索攻擊:客戶服務受影響 已持續(xù)多天

下一篇:GitLab目錄遍歷漏洞 (CVE-2023-2825) 安全風險通告