亚洲日本免费-啊轻点灬太粗太长了三男一女-麻豆av电影在线观看-日韩一级片毛片|www.grbbt.com

OECD報告|開放的人工智能:定義、趨勢及風險治理

報告信息

人工智能開放性:政策制定者的入門指南

AI openness: A primer for policymakers

報告來源:經合組織(OECD)

發布時間:2025年8月14日

摘要

本文探討了人工智能(AI)領域的?“開放性”(openness)?概念,包括相關術語定義以及不同開放程度的存在形式。本文說明了為什么源于軟件領域的?“開源” (open source一詞,無法充分涵蓋人工智能所特有的復雜性。通過實驗數據,本文分析了當前開源權重基礎模型(open-weight foundation models)的發展趨勢,既揭示了這類模型的潛在益處,也指出了其伴隨的風險。文中還引入 “邊際”(marginality)概念,為相關討論提供更深入的視角。本文旨在以清晰簡潔的方式呈現信息,為政策討論提供支持,助力決策者探索如何在生成式人工智能基礎模型的開放性與負責任治理之間實現平衡。

“開源”的由來

20 世紀 90 年代以來,開源軟件(OSS)在商業軟件領域內外部逐步普及,不僅推動了行業協作,還通過降低成本促進了軟件在發展中國家的應用,同時平衡了大型軟件公司的市場影響力、培育了創新生態、助力了技能提升,并借助社區反饋改善了軟件質量。得益于這些優勢及其他潛在價值,開源軟件的理念被人工智能領域的部分群體繼承 —— 在該領域,人工智能模型(或其部分組成要素)會依據相關許可條款公開發布,供任何人下載、修改和分發。

目前,關于公開人工智能模型或其組件的風險、收益與權衡取舍,各界仍在持續爭論,尤其是針對具備通用能力的先進人工智能基礎模型。隨著深度求索(Deepseek)R1、OpenAI 的 GPT-OSS、阿里巴巴的通義千問(Qwen)等開源權重模型陸續推出,這一爭論的熱度進一步攀升。

基礎模型的有益應用正逐步拓展至多個領域:醫療健康領域、沉浸式游戲領域以及個性化教育領域。若對人工智能模型的獲取設置限制,可能會抑制創新、阻礙外部評估、削弱人工智能收益的廣泛普及,并導致未來人工智能技術的控制權集中在少數主體手中。然而,基礎模型也可能被惡意主體濫用,例如用于生成兒童性虐待材料、侵犯知識產權與隱私權,或實施具有高度迷惑性的詐騙 —— 受害者會誤以為自己在與信任的親友互動。

一旦模型開放,諸多防范濫用的保障措施都可能被規避;擁有足夠專業知識和計算資源的主體,甚至可通過 “微調” 模型增強其被濫用的可能性。此外,模型發布后若想完全下架,或為防范新發現的風險而事后添加防護機制,實操難度可能極大。對人工智能模型及其各類組件的發布施加限制,雖可能引發知識產權相關爭議,但或可提升安全性、激勵創新,并遏制風險擴散。

本報告聚焦開源權重模型(即核心權重可公開獲取的基礎模型),探討其潛在風險與收益。需注意的是,隨著基礎模型的研發與應用在技術變革和社會變遷中不斷推進,公開模型權重的風險與收益之間的平衡關系可能會發生變化。

盡管本報告的核心是開源權重基礎模型,但需明確:非通用型人工智能模型,或不符合上述 “先進” 定義的人工智能模型,同樣可能存在風險。例如,Urbina 等人(2022)的研究表明,制藥行業中使用的標準窄域人工智能工具,可能被改用于協助設計生化武器。

1. 為什么“開源”一詞不適用于AI

“開源”(open-source)一詞源于 “開源軟件”(OSS)。1998 年,“開源” 被定義為一種 “社會契約”(后發展為一種認證標準),描述的是旨在公開可用的軟件 —— 這類軟件會依據特定許可協議發布,協議中明確了源代碼的使用、修改與分發條件。

根據開源計劃組織(OSI)的定義,開源軟件許可協議必須滿足十大核心標準,包括源代碼可自由獲取、允許衍生作品開發、不對軟件使用者身份及使用目的設限等。理論上,“開源” 并不必然排除相關商業活動。

如今,“開源人工智能” 存在多種定義。開源計劃組織(OSI)借鑒經合組織(OECD)對人工智能系統的定義,發布了開源人工智能定義草案:

“開源人工智能是指依據特定條款、以特定方式開放的人工智能系統,其核心是賦予使用者以下自由:無需申請許可即可將系統用于任何目的;研究系統工作原理并檢視其組件;為任何目的修改系統(包括改變其輸出);將系統(無論是否修改)分享給他人使用。這些自由既適用于功能完整的系統,也適用于系統的獨立組件。行使這些自由的前提是,使用者能獲取‘修改系統所需的最優形式’的資源”。

Linux 基金會也提出了一套開源人工智能定義,與 OSI 草案不同的是,該定義要求公開模型底層組件的相關信息:

“開源人工智能(AI)模型允許任何人復用和改進該模型。開源人工智能模型包含模型架構(以源代碼形式呈現)、模型權重與參數,以及訓練數據相關信息 —— 這些內容需依據許可協議共同發布,允許任何接收者不受限制地使用、研究、分發、銷售、復制、創作衍生作品,以及修改經許可的成果或其修改版本”。

由于人工智能模型與傳統軟件的構建方式存在本質差異,開源軟件中 “源代碼可免費公開下載” 的概念無法直接套用于人工智能領域。對人工智能模型而言,“源代碼” 可能指代推理代碼、訓練代碼,或兩者兼具,且兩類代碼可獨立分享。此外,人工智能模型除源代碼外,還包含模型權重、訓練數據等關鍵組件?—— 這些組件均可獨立選擇共享或保密,且與源代碼及組件之間的狀態互不綁定。

尤其需要注意的是,源代碼與模型權重是兩個完全不同的概念。將權重稱為 “開源” 易產生誤導,因為權重并不構成源代碼:源代碼是執行特定任務的指令集合,而權重是對數據進行訓練與微調后得到的結果。適用于源代碼的許可協議,無法直接套用于人工智能模型權重。

基于上述及其他考量,目前 “開源人工智能” 術語存在爭議。部分人依據 OSI 的開源定義解讀該術語,另一些人則將其視為涵蓋多種訪問方式的集合 —— 從 “無門檻可下載” 模型到完全開放模型均包含在內。完全開放模型(如 GPT-J)會公開所有訓練代碼、推理代碼、權重及文檔,允許使用者自由使用、修改和分發(包括用于商業目的);無門檻可下載模型僅提供部分組件(如訓練代碼、模型權重),對其他組件(如原始訓練數據)則予以保留;而有門檻可下載模型會對特定用戶的訪問權限加以限制,與前兩者形成鮮明對比。

這種爭議可通過 LLaMA、LLaMA2、Dolly、StableLM 等人工智能模型的定位體現 —— 這些模型使用 “開源” 一詞的方式,與 OSI 對開源軟件的定義并不一致。部分開發者僅因模型權重可下載,便聲稱其模型為 “開源”,即便其許可協議對某些使用場景和分發行為存在限制。

表1.1 Linux基金會模型開放性框架的組成部分

為助力評估和分類人工智能模型的開放性,Linux 基金會提出了 “模型開放框架”(MOF)—— 通過評估模型哪些組件已公開、依據何種許可協議公開來實現(表 1.1)。該框架將模型開放程度分為三個逐步擴展的等級:

? 三級 ——?開放模型(Class III – Open Model):這是開放的最低門檻,要求核心模型(架構、參數、基礎文檔)依據開源許可協議公開。使用者可基于該模型進行使用、分析和二次開發,但對模型開發過程的了解有限。

? 二級 ——?開放工具(Class II – Open Tooling):在三級基礎上進一步擴展,除核心模型外,還需公開用于訓練、評估和運行模型的全套代碼,以及關鍵數據集。這些組件的公開能幫助社區更好地驗證模型、排查問題,是實現模型可復現性的重要一步。

? 一級 ——?開放科學(Class I – Open Science):這是開放程度的最高等級,要求依據開放科學原則公開所有相關成果。除二級包含的組件外,還需公開原始訓練數據集、詳細闡述整個模型開發過程的研究論文、中間檢查點、日志文件等。這一等級為模型端到端開發流程提供了極高的透明度,有助于促進協作、審計和技術的累積進步。

2. 當前開源權重模型的發展趨勢

圖 2.1 顯示,全球生成式人工智能基礎模型的供應量呈明顯加速態勢,2024 年年中之后尤為突出。值得注意的是,開源權重模型不僅跟上了這一增長節奏,截至 2025 年 4 月,其在所有可用模型中的占比已達到約 55%。這一數據表明,開源權重模型的研發與供給正呈現擴大趨勢。

圖2.1 基礎模型供應量持續增長,

開源權重模型占商業化模型半數以上

圖 2.2 展示了不同國家在開源權重模型研發與供給方面的動態格局。美國在這兩個維度均處于領先地位,這反映出其強大的人工智能生態系統與云基礎設施優勢。中國和法國也成為關鍵的研發國家;而荷蘭與新加坡盡管本土研發者數量較少,卻憑借優勢成為主要的模型供給樞紐。這種 “研發 – 供給” 的地域分化,凸顯了人工智能部署的全球性特征 ——?無論模型源自何處,往往會在云服務能力先進的國家進行托管。數據還顯示,模型供給的國際分布正日益分散。【注:“研發者” 指對人工智能模型進行預訓練與微調的企業】

圖2.2 美、中、法處于開源權重模型研發前沿,

美、荷、新加坡的提供商供給量最大

圖 2.3 聚焦基礎模型提供商的地域集中度,顯示美國占據主導地位?—— 其提供商數量占全球總量的一半以上。這種領先優勢在開源權重模型研發領域同樣存在。盡管中國、英國、法國、德國等其他國家也為該生態系統做出了貢獻,但規模明顯小于美國。【注:“提供商” 指為模型提供支持與托管服務的云服務公司。】

圖2.3 超半數基礎模型提供商位于美國

生成式人工智能基礎模型的供給主要由?“文本到文本”(text-to-text)模型驅動,這類模型包括代碼助手以及具備多模態功能的模型,占所有模型供給量的 78%。專注于圖像生成的 “文本到圖像”(text-to-image)模型占總供給量的 18%,而 “音頻到文本”(audio-to-text)模型占比相對較小,僅為 2.5%。

值得關注的是,自 2024 年初以來,開源權重 “文本到文本” 模型(包括基礎模型及其所有變體與更新版本)的平均質量實現了快速提升(如圖 2.4 所示)。這一趨勢表明,大型語言模型(LLMs)的性能在短期內取得了顯著進步。【注:“文本到文本” 模型的質量指數取 Hugging Face 的 MMLU 得分、Arena ELO 得分與 GPQA 值的平均值。】

圖2.4 開源權重模型質量顯著提升

3.開源權重模型的潛在收益與風險

3.1 主要收益

開源權重模型的收益體現在多個方面,以下示例不分先后順序:

1.推動有益創新:開源權重模型可加速人工智能研發進程,推動創新及新下游應用的整合。這類模型允許開發者在現有技術基礎上二次開發,促進跨行業協作與實驗,進而推動重大技術突破。這種協作環境不僅加快創新速度,還能鼓勵探索新應用場景,最終擴大人工智能對日常生活的積極影響。

2.?支持外部評估:開源權重模型便于更廣泛的開發者社區對項目進行獨立評估,也能吸納個體貢獻,從而實現對模型性能與風險更全面的評估。借助整個人工智能社區的力量,還可對開源權重模型及其組件(如訓練數據、權重、文檔)進行審計與分析,助力發現漏洞、偏見及其他問題。此外,驗證模型性能是否符合開發者宣稱的標準,也是外部評估的關鍵形式之一。

3.提升人工智能開發效率:開源權重模型支持大規模協作,下游開發者無需為每個新應用 “從零開始”,只需對現有模型進行優化即可 —— 這有助于降低人工智能開發相關的資源消耗與成本。

4.助力人才培養:公開基礎模型權重可促進人才發展。隨著更多人有機會接觸預訓練的前沿模型,長期來看,人工智能人才庫規模將逐步擴大;從更長遠視角,這還能為不同地區的相關項目提供支持,助力縮小數字鴻溝。

5.擴大應用、普及度與市場選擇:開源權重模型通過降低創新與市場準入門檻、支持協作及提供技能提升機會,擴大了開發者社區規模并促進競爭。這一趨勢鼓勵不同地區、不同背景的個體參與其中,推動開發出滿足各類用戶群體特定需求的應用(例如適用于不同語言與文化場景的生成式人工智能工具),進而讓更廣泛的人群能夠使用人工智能應用并從中受益。

6.支持敏感數據管理:對于缺乏資源獨立開發專有人工智能解決方案、且持有無法與閉源權重模型提供商共享的敏感數據的企業與政府而言,開源權重模型為其采用人工智能技術提供了便利。

7.實現設備端解決方案:直接獲取模型權重便于在設備端部署模型,這對離線功能或隱私要求嚴苛的環境至關重要。此舉可擺脫對互聯網連接與第三方 API 訪問的依賴,有助于解決數據傳輸與控制權相關的顧慮。

8.增強數字安全與防護機制:公開基礎模型權重可強化網絡安全 —— 紅隊(網絡安全防護測試團隊)可合法使用攻擊者可能利用的工具,測試并模擬潛在攻擊場景。這一過程提升了 “對手模擬” 能力,有助于制定更貼合實際、更有效的防御策略。此外,開源權重模型更易定制,可針對特定操作場景設置專屬防護機制。

9.防范非預期有害行為:開源權重基礎模型有助于防范非預期有害行為(如生成兒童性虐待材料(CSAM)、侵犯隱私)。通過讓研究者更便捷地獲取模型權重、架構、訓練數據及訓練流程,可更精準地定位此類有害行為的成因,使人工智能輸出與用戶價值觀對齊,并提升對人工智能生成內容的檢測能力。這種透明度支持對模型進行更有效的評估與微調,最終打造出更可信的人工智能系統,降低產生有害結果的可能性。

10.推進對齊與可解釋性研究:“對齊研究” 旨在確保人工智能系統符合用戶或開發者的偏好與價值觀,通常需要通過強化學習等方法對模型進行微調。盡管可通過 API 實現微調,但這些接口可能無法提供底層模型的充足信息,難以支撐深入分析。此外,可解釋性研究的部分內容需直接修改模型參數與激活模式,這要求完全或接近完全地訪問模型。

11.分散影響力:開源權重模型的開發讓廣泛的社區能夠影響人工智能的發展方向。這種影響力的分散具有經濟、社會與政治層面的意義,或可推動人工智能潛在收益的更廣泛共享。

3.2 潛在風險

開源權重模型的風險集中在 “可控性” 與 “危害性” 上,具體有:一是風險擴散更快,惡意主體可無限制微調模型,且原開發者難以監測修復,甚至可能暴露其他模型漏洞;二是濫用場景多樣,包括生成有害內容(如 CSAM、NCII)、發起網絡攻擊、侵犯知識產權,以及通過 “成員推理” 等技術泄露訓練數據隱私;三是存在不可預測風險,如 “智能體部署” 可能讓模型自主交互引發意外,且生物、化學領域的濫用風險雖暫無充分證據,但需警惕。值得注意的是,部分風險與閉源模型有重疊,需區分 “開源新增風險” 與 “技術固有風險”。

3.3 整體風險評估中的邊際收益與邊際風險

評估開源權重模型的 “邊際” 風險與收益(即相較于閉源模型或現有技術的風險,公開基礎模型權重所新增的風險與收益)至關重要,這是理解開源權重模型真實影響的核心。這種方法使利益相關方能夠將開源權重模型與現有工具及實踐(包括人工智能與非人工智能領域)進行對比,并考量 “無此類模型時” 的潛在結果。

例如,若某開源權重模型在內容創作效率上優于傳統方法,其邊際收益可為 “支持公開模型” 提供依據;反之,若其惡意使用風險遠高于現有技術,則需評估該模型是否具備更完善的風險緩解策略,或其收益是否足以證明公開的合理性。

通過聚焦邊際評估,決策者可更準確地判斷開源權重模型的優勢是否大于潛在劣勢。應對邊際風險至關重要,這能確保干預措施與風險水平相適應、成比例。

需注意的是,邊際評估僅是風險評估的方法之一。在不同場景下,其他基準可能更適用。單純依賴邊際對比的核心問題在于可能引發?“溫水煮青蛙” 效應 —— 隨著模型能力演進或使用模式變化,每次評估新模型時都會以 “更寬松的基準” 為參照,導致整體風險容忍度不斷提升。因此,需建立更全面、更具適應性的風險框架,確保人工智能的研發與部署始終可信。

來源:經合組織(OECD)

時間:2025年8月

執筆:柳鑫荻(國科大經管學院碩士研究生)

聲明:本文來自圖靈財經,稿件和圖片版權均歸原作者所有。所涉觀點不代表東方安全立場,轉載目的在于傳遞更多信息。如有侵權,請聯系rhliu@skdlabs.com,我們將及時按原作者或權利人的意愿予以更正。

上一篇:違規共享用戶隱私數據,美國紐約知名醫院賠償超3700萬元

下一篇:衛星網絡遭精準攻擊!伊朗關鍵貨運船隊海上失聯細節披露