亚洲日本免费-啊轻点灬太粗太长了三男一女-麻豆av电影在线观看-日韩一级片毛片|www.grbbt.com

OECD報告:利用隱私增強技術,共享可信人工智能模型

文章信息

Sharing Trustworthy AI Models With Privacy-Enhancing Technologies

來源:OECD

時間:2025年

隱私增強技術(PETs)在促進人工智能(AI)模型的可信協作開發與共享方面發揮著關鍵作用,它不僅能保護隱私權,還能維護知識產權等其他權利和利益。PETs 通過以下方式實現這一目標:(1)數據最小化(即限制數據收集和處理僅為訓練或測試 AI 模型所直接相關和必要的內容);(2)保密性(即防止未授權訪問輸入數據或 AI 模型中包含的信息)。

本報告重點介紹了兩個主要用例原型,這些原型源自 2024 年 5 月至 7 月舉行的兩次 OECD 隱私增強技術與人工智能專家研討會。這些用例原型包括利用 PETs 實現:

通過最小化和保密使用輸入及測試數據來提升 AI 模型性能:通常,沒有任何單一組織能夠獲取所需的多樣化或大規模數據,外部數據訪問因保密性、信任或監管問題變得復雜。PETs 在此的核心功能是確保輸入數據的保密預處理(如通過可信執行環境),以及最小化個人數據和敏感數據的收集使用(如聯邦學習、合成數據等,常與差分隱私結合彌補不足)。

實現 AI 模型的機密共創與共享:多方聯合開發或共享 AI 模型可推動創新(如讓中小企業獲得強大模型),但存在模型被未授權訪問、操縱或信息提取的風險。PETs 主要用于機密共創(如多方計算、聯邦學習)和保護模型及輸出(如差分隱私、可信執行環境、同態加密)。

在這兩個用例原型中,PETs 減少了訓練 AI 模型的組織收集額外敏感信息的需求,降低了各方信任風險,促進了 “數據共享伙伴關系”。但 PETs 并非萬能藥,存在效用、效率與可用性的平衡挑戰(如合成數據可能引入偏差,同態加密計算成本高)。

政策層面,需從需求側(如監管沙盒、創新競賽、政府采購)和供給側(如研發支持)推動 PETs 應用,且供需措施需協同,以保障市場活力和技術創新。

1. 引言

隨著人工智能(AI)系統在復雜性和規模上的發展,它們越來越依賴大量數據集來訓練模型、提取見解并支持各領域決策。但這種對數據的依賴帶來了重大的數據治理和隱私問題,尤其是在保護個人、敏感和專有信息方面。先進 AI 模型(特別是生成式 AI)的出現加劇了這些擔憂,凸顯了保護個人數據權利、維護數據機密性等關鍵問題。

AI 模型的共享(如 “開源” AI 模型)也值得關注:預訓練模型可能嵌入并泄露敏感信息,但公開可用性也讓開發者能檢查和控制模型微調,有助于減輕隱私等方面的擔憂(NTIA,2024;OECD,2025)。

OECD 在 AI、數據和隱私方面的工作指出,大規模數據抓取挑戰了隱私原則,AI 系統從數據中推斷個人特征的能力帶來了歧視和隱私侵犯風險,且大數據分析重新識別個人的潛力、AI 生成不準確信息的問題,以及個人數據權利維護的局限性,都加劇了這些風險(OECD,2015;2021;2024)。

為應對這些挑戰,隱私增強技術(PETs)作為補充性技術解決方案應運而生,它能在保護數據機密性和隱私的同時,支持信息的收集、處理、分析和共享(OECD,2023)。盡管許多新興 PETs 處于早期發展階段,但在推進隱私設計原則、促進跨組織和行業數據共享信任方面潛力巨大,為 AI 等領域的創新數據經濟模式鋪路。

例如,合成數據與差分隱私結合,可在不暴露基礎數據的情況下訓練 AI 模型:金融領域用其訓練欺詐檢測模型,醫療領域用其安全利用患者數據開發疾病預測模型(OECD,2023)。

然而,PETs 的技術復雜性和快速演變給政策制定者、監管機構和組織帶來挑戰,且許多 PETs 的應用局限于特定用例,潛在用戶了解有限。本報告基于 2024 年 5 月(倫敦)和 7 月(新加坡)的兩次 OECD 專家研討會,結合 OECD 數據自由流動與信任專家社區的輸入,探討 PETs 在 AI 中的潛力和局限,識別核心用例原型。

報告結構包括:介紹兩個用例原型(通過保密使用數據提升 AI 性能、機密共創和共享 AI 模型),以及當前針對 AI 背景下 PETs 采用的政策舉措。

2. 用例原型:

PETs 助力可信的人工智能模型協作開發與共享

OECD 關于 PETs 的工作表明,PETs 往往技術復雜,難以廣泛采用(OECD,2024)。導致采用率相對較低的一個原因是,PETs 的應用通常局限于特定用例,但潛在用戶以及政策制定者和一些監管機構對此知之甚少。這些因素共同導致了在保護個人隱私的同時失去創新機會,阻礙了商業案例的鞏固,并可能危及一些最具創新性的市場參與者的生存能力。正是在這種背景下,OECD 發布了《新興隱私增強技術》報告(OECD,2024),旨在為政策討論提供信息,并進一步提高對 PETs 潛力和局限性的認識。本報告的一個關鍵結論是,“對 PETs 的具體用例進行分析…… 可能有助于為政策討論提供信息,包括關于 PETs 有望幫助實現的隱私和經濟成果”。

因此,OECD PETs 與 AI 專家研討會重點關注了在 AI 背景下有效實施 PETs 的一系列用例。對這些具體用例的考慮有助于更好地探索實際實施機會和挑戰,進而為基于現實世界示例而非抽象概念的后續政策討論提供基礎。然而,雖然專注于特定用例對于探索具體的實施機會和挑戰很有價值,但在應對更廣泛的政策和監管環境時,僅關注特定用例可能會有局限性。這是因為個別用例可能會帶來潛在的獨特組織、行業特定或監管挑戰。

為避免可能的碎片化理解,并使見解能夠更好地在包括行業和國家在內的各種背景下轉移,本報告除了在 OECD PETs 與 AI 專家研討會上討論的具體用例外,還強調了更通用的 PET 用例原型。這些原型捕捉了類似具體用例中觀察到的共同要素、目標和 PET 實施,提供了可應用于多種背景的更具凝聚力的視角。

這種側重于 PET 用例原型的更廣泛方法支持開發 OECD PETs 項目下一步在附錄 A 中提出的全球可跨國比較、標準化的 PETs 用例庫。它有望為制定更連貫和健全的政策及監管指導以促進 PETs 的適當采用帶來若干優勢:

促進對特定用例原型中 PETs 的好處和局限性的共同理解:通過檢查每個原型中的共同要素、目標和 PET 功能,政策制定者、監管機構和從業者可以更好地理解和交流 PETs 如何在不同背景下應用,而不必將重點局限于特定技術。

作為評估 PETs 在各種用例(包括 AI)中的有效性和影響的方法的共同參考點:上述側重于用例原型的方法提高了評估 PETs 有效性的方法的可比性。這反過來有助于促進基于共識的技術標準的制定以及 PETs 的適當采用,因為包括企業領導者、法律團隊和開發者在內的利益相關者可以更好地評估和比較各種 PETs 對其特定用例的凈效益。

幫助促進 PETs 在國家數據治理和隱私框架中的體現方式的趨同:使用用例原型作為共同參考有助于確保現有政策和建議更好地適用于不同行業和司法管轄區,從而促使跨行業、政策領域和司法管轄區的政策制定者和監管機構制定與 PETs 相關的趨同政策和監管指導。

促進政策和法規對技術變化的更大適應性:基于用例原型的政策和建議更有可能適應 PETs 的技術變化,因為它們關注 PETs 在實現用例原型所反映的關鍵業務 / 組織目標方面的功能作用,而不是任何一種技術的獨特特征。

以下各節介紹了根據 OECD PETs 與 AI 專家研討會上討論的更具體用例以及文獻中記錄的其他用例確定的兩個用例原型。這些包括利用 PETs 實現:(1)通過最小化和保密使用輸入和測試數據來增強 AI 模型性能(用例原型 1);(2)實現 AI 模型的機密共創和共享(用例原型 2)。

在這兩個用例原型中,PETs 用于通過減少或消除訓練 AI 模型的組織收集個人數據或其他敏感或機密信息的需求(例如,原始數據控制者可能繼續為自己的運營目的收集和持有此類數據),來保護敏感信息免受未授權訪問和濫用。通過這種方式,PETs 直接滿足了各方之間的信任要求,從而激勵了 OECD《關于加強數據獲取與共享的建議》(OECD,2021)中呼吁的 “數據共享伙伴關系”。

在涉及個人數據的情況下,下面介紹的用例表明,PETs 將直接有助于維護個人的隱私權,并支持遵守隱私和數據保護法律法規的努力。在涉及專有信息(包括商業秘密)的情況下,使用 PETs 有助于在參與數據共享伙伴關系時加強知識產權保護和對業務關鍵信息的控制,這表明 PETs 不僅限于個人數據保護。

2.1 用例原型 1:通過最小化和保密使用輸入及測試數據提升 AI 模型性能

問題陳述和基本原理

提升 AI 模型的質量和性能通常需要訪問不僅數量龐大而且特征多樣的數據,以確保 AI 模型能在其預設的各類現實場景中可靠運行,而不會偏向個別特殊案例。然而,很少有單一組織能掌控確保 AI 模型質量和性能穩健所需的大規模、多樣化數據。因此,獲取外部數據集變得至關重要(OECD,2024;2025)。

但即便組織內部及組織間存在所需數量和多樣性的數據,業務要求和信任問題仍可能限制數據流動。監管要求(包括但不限于隱私和數據保護法規)在保護個人、防止數據濫用方面發揮關鍵作用。然而,對這些要求的不當解讀可能過度限制數據的可訪問性,即便數據共享是合法且有益的。這種限制甚至可能存在于組織內部:組織內不同實體可能不愿或無法共享有價值或敏感數據,除非能確保接收方有強有力的保障措施來維護數據機密性。

這一挑戰在金融、醫療等高度監管行業,以及網絡安全等關鍵領域尤為突出 —— 這些領域的數據異常敏感,對信任的要求也格外高。例如,這種限制可能會阻礙對預訓練模型的微調,而此時訪問敏感或業務關鍵數據對于避免有害的歧視性偏差、提高模型準確性(以防止使用 AI 系統時造成人身或經濟傷害)至關重要。

隱私增強技術(PETs)在輸入和測試數據的最小化及保密使用方面的潛力

PETs 為組織開展協作、實現 AI 模型高性能(包括模型微調或測試)提供了可行路徑,同時能確保在行業內及跨行業實現安全、合規、可信的數據訪問與共享。在 OECD 隱私增強技術與人工智能專家研討會上提出并討論的用例中,PETs 在以下兩個具體功能上的應用尤為突出:(1)對輸入數據進行機密預處理;(2)最小化輸入或測試數據的收集與使用。

  • 輸入數據的機密預處理加密數據處理工具允許在不暴露數據的情況下進行計算,適用于云計算等不可信環境。例如,可信執行環境(TEEs)是處理器上的安全區域,可存儲敏感數據并運行安全代碼,操作系統無法訪問,適用于醫療影像等敏感數據的云處理(Sedghighadikolaei 和 Yavuz,2024);同態加密(HE)允許在加密數據上直接計算,適用于小型數據集(如特定醫療影像),但計算成本較高(OECD,2023)。
  • 輸入數據收集和使用的最小化分布式機密數據處理技術支持多組織協作使用數據而不暴露原始信息。多方計算(MPC)讓參與方聯合計算函數而不泄露輸入數據,適用于網絡安全情報共享等場景;聯邦學習(FL)讓數據在本地訓練,僅共享模型更新,避免數據集中(如 Apple 用其訓練 Siri 語音識別,結合差分隱私降低重識別風險);合成數據模擬原始數據統計特性,可用于訓練(如德國保險公司 Provinzial 用其優化推薦引擎),但需防范重構攻擊等風險(英國信息專員辦公室,2023)。
  • 測試數據收集和使用的最小化測試 AI 模型需額外數據,合成數據可減少對真實敏感數據的依賴,如在計算機視覺領域,用合成數據測試人臉識別模型,模擬不同場景以識別模型弱點,同時保護隱私(OECD 專家研討會案例)。

2.2 用例原型 2:在保護機密性的同時共同創建或共享 AI 模型

問題陳述和基本原理

跨組織協作開發人工智能模型能夠通過整合多樣化的數據源和專業知識推動創新,并提高模型的穩健性(Seger 等人,2023;Peters 和 Parrott,2023;OECD,2025)。當單個組織缺乏所需的數據量、數據廣度或專業知識時,這種協作方式的價值尤為突出。共享人工智能模型有助于普及對強大 AI 模型的訪問,同時減少從頭構建新模型的需求。在此背景下,開源 AI 模型(即依據開源許可證發布 AI 模型參數)的迅速興起值得特別關注(OECD,2025)。除了共享 AI 模型帶來的經濟效益,其環境效益也不容忽視 —— 例如,訓練大型語言模型(LLM)會產生大量二氧化碳排放(OECD,2022)。

在共同創建或共享 AI 模型時,隱私和機密性風險可能比僅共享 AI 輸入數據時更大。這是因為 AI 模型可能成為未授權訪問、操縱或提取嵌入其中的個人信息、專有信息或其他敏感信息的目標 —— 與共享輸入數據不同,這些風險并非總能得到明確考量或緩解(Hu 等人,2021;Majeed 和 Hwang,2023;英國科學、創新與技術部,2024)。也就是說,當模型部署在外部或安全性較低的環境中時,攻擊者可能會嘗試對模型進行逆向工程,以獲取專有算法、數據模式、敏感參數以及模型內容。

因此,盡管共同創建和共享 AI 模型具有諸多益處,但如果缺乏確保機密性和信任的強有力保障措施,利益相關者可能會更加不愿或無法全力參與此類聯合開發或共享。同樣,當涉及高度敏感的數據或受監管行業(例如,共同開發和共享醫療、金融、網絡安全或國家安全領域的 AI 模型)時,這一挑戰會更加突出。

隱私增強技術(PETs)在實現 AI 模型機密共創和共享方面的潛力

在能夠聯合開發或共享 AI 模型的協作環境中,隱私增強技術(PETs)對于建立信任至關重要,同時不會損害機密性或違反監管要求。在 OECD 隱私增強技術與人工智能專家研討會上提出并討論的用例中,PETs 在實現 AI 模型共創和共享方面有兩個主要功能尤為突出:(1)AI 模型的機密共創;(2)AI 模型及其輸出的保護。

  • AI 模型的機密共創AI 模型的機密共創是指多個參與方聯合開發 AI 模型,這些參與方整合各自的數據、資源或專業知識,且不會向對方泄露專有信息、敏感信息或個人信息。與用例原型 1(即 “通過輸入和測試數據的機密共享提升 AI 模型性能”)類似,支持分布式機密數據處理的 PETs(如多方計算(MPC)和聯邦學習(FL))與 AI 模型的機密共創密切相關。然而,與用例原型 1(通常由單一實體控制數據收集和 AI 模型創建過程)不同,此處的機密共創涉及所有參與伙伴共同主導的協作過程。因此,每個參與伙伴對模型創建過程以及最終生成的 AI 模型都擁有共同的所有權和控制權,除非通過 PETs(如可信執行環境(TEEs)(見用例 7)或同態加密(HE)(見用例 8))限制對 AI 模型的訪問,以進一步增強機密性和信任。
  • AI 模型及其輸出的保護在共享 AI 模型時,模型可能會成為未授權訪問、操縱或提取嵌入其中的敏感專有信息的目標。當模型部署在外部或安全性較低的環境中時,攻擊者可能會嘗試對模型進行逆向工程,以獲取專有算法、數據模式或敏感參數,這一點尤為關鍵。當 AI 模型被更新或微調時,或者即使使用聯邦學習(FL)等 PETs 時,本地模型也可能成為未授權訪問、操縱或提取的目標,這種風險會進一步加劇。

3. 關于 PETs 與 AI 的政策舉措

各國隱私和數據保護法規越來越關注 PETs,政府和監管機構也通過多種政策推動其在 AI 中的應用,包括需求側和供給側措施,二者需協同發揮作用。

3.1 監管沙盒和其他沙盒

監管沙盒為企業提供受控環境,測試 PETs 與 AI 結合的創新方案,平衡創新與合規。例如:新加坡 IMDA 與 PDPC 的 PET 沙盒(2022 年 7 月啟動),幫助企業確定合適的 PET,發布含 AI 的案例研究和政策指導(IMDA,2024)。挪威的 AI 和數據保護沙盒,要求數據保護設計,促進合規的 AI 創新,利用沙盒項目經驗制定指南(Datatilsynet,n.d.)。英國 ICO 的沙盒,支持用個人數據的創新項目,PETs 是入選標準之一,當前關注個性化 AI,強調 PETs 在隱私設計中的作用(英國信息專員辦公室,2025)。

3.2 創新競賽

創新競賽通過獎勵激勵 PETs 在 AI 中的技術突破。例如:2022 年英美聯合啟動的 prize 挑戰,聚焦用 PETs(聯邦學習等)應對反洗錢和疫情響應,獲獎方案結合了同態加密、MPC 和差分隱私(英美 prize 挑戰,n.d.)。法國 CNIL 與 Inria 的隱私獎(2016 年起),鼓勵數據保護研究,2025 年第九屆關注 AI 透明度、PETs 等主題。

3.3 研發(R&D)支持

研發支持推動 PETs 技術進步,提升其效率和可用性。例如:美國 2023 年《國家隱私保護數據共享與分析戰略》及 2024 年《隱私增強技術研究法案》,支持聯邦機構研發 PETs(眾議員 Stevens,2024)。土耳其 TüB?TAK 提供多種贈款,支持 PETs 在大數據、AI 等領域的研發,結合國家 AI 戰略推進實施(OECD,2023)。新加坡南洋理工大學成立數字信任中心,研究聯邦學習、大型語言模型隱私保護等技術(OECD 專家研討會案例)。

3.4 協作舉措

協作舉措整合多方資源,推動 PETs 在 AI 中的應用。例如:以色列衛生部與企業合作開發口腔癌診斷 AI 工具,用差分隱私處理醫療數據,建立安全研究平臺支持 62 個團隊的 AI 研發(OECD 專家研討會案例)。英國 OpenSAFELY 平臺,在 COVID-19 疫情中安全分析 5500 萬患者的健康記錄,支持 AI 模型開發而不暴露敏感數據(OECD 專家研討會案例)。

3.5 政府采購

政府采購通過優先選擇集成 PETs 的 AI 服務,推動市場應用。例如,愛沙尼亞 2022 年推出的 “Bürokratt”(全球首個基于 AI 的公共服務虛擬助手),其采購要求集成聯邦學習和合成數據,保護公民隱私(愛沙尼亞信息系統管理局,n.d.)。

2025-OECD-SHARING TRUSTWORTHY AI MODELS WITH PRIVACY-ENHANCING TECHNOLOGIES.pdf

來源:OECD

編輯:中國科學院大學經管學院研究生張麗

聲明:本文來自圖靈財經,稿件和圖片版權均歸原作者所有。所涉觀點不代表東方安全立場,轉載目的在于傳遞更多信息。如有侵權,請聯系rhliu@skdlabs.com,我們將及時按原作者或權利人的意愿予以更正。

上一篇:IDC雙報告首推!360安全智能體定義安全+AI新標桿持續領跑!

下一篇:50款主流大模型的網絡攻擊能力深度測評