亚洲日本免费-啊轻点灬太粗太长了三男一女-麻豆av电影在线观看-日韩一级片毛片|www.grbbt.com

開源人工智能治理的全球?qū)嵺`及路徑選擇

自DeepSeek系列模型發(fā)布以來(lái),我國(guó)的開源模型能力大幅提高,逐步趕上以O(shè)penAI旗下的GPT-o1為代表的閉源模型。以開源模型為核心的開源人工智能(Open Source AI)開放了模型權(quán)重、訓(xùn)練數(shù)據(jù)、工程方法和微調(diào)策略,降低了人工智能大模型后續(xù)部署和應(yīng)用的門檻,推動(dòng)了人工智能技術(shù)的快速擴(kuò)散。圍繞開源人工智能形成的模型分發(fā)、組件開發(fā)、應(yīng)用研發(fā)和服務(wù)提供的有機(jī)生態(tài),使人工智能技術(shù)更加普惠、利用更加便捷,推動(dòng)開源成為人工智能高質(zhì)量發(fā)展的基本要求。然而,開源人工智能在研發(fā)和應(yīng)用過程中也伴隨風(fēng)險(xiǎn)。開源本身的不可逆性,以及人工智能技術(shù)擴(kuò)散的動(dòng)態(tài)性,增加了開源人工智能被濫用或誤用的可能性。因此,必須根據(jù)開源人工智能的風(fēng)險(xiǎn)特點(diǎn)和技術(shù)擴(kuò)散特征進(jìn)行針對(duì)性的治理,通過能力建設(shè)提高開源人工智能的安全性,并通過負(fù)責(zé)任的應(yīng)用生態(tài)建設(shè)提高開源人工智能的可控性。開源人工智能治理需要在包容創(chuàng)新和管控風(fēng)險(xiǎn)之間取得平衡。本文借鑒歐盟、美國(guó)和國(guó)際組織對(duì)開源人工智能的治理經(jīng)驗(yàn),為我國(guó)開源人工智能的有序發(fā)展、利用開源人工智能推動(dòng)前沿科技創(chuàng)新和構(gòu)建負(fù)責(zé)任的開源人工智能生態(tài)體系提供參考。

一、開源人工智能治理的國(guó)際經(jīng)驗(yàn)

開源人工智能在降低技術(shù)開發(fā)和使用門檻、促進(jìn)資源和能力的普惠、推動(dòng)知識(shí)傳播和積累,以及為科學(xué)基礎(chǔ)研究和產(chǎn)業(yè)化應(yīng)用提供多樣性等方面,展現(xiàn)出不可替代的價(jià)值。同時(shí),各利益相關(guān)方也擔(dān)心開源人工智能是否會(huì)導(dǎo)致安全風(fēng)險(xiǎn)的更快擴(kuò)散,帶來(lái)負(fù)面社會(huì)效果,并對(duì)應(yīng)采取何種治理方案進(jìn)行有效防控。

整體看,排除風(fēng)險(xiǎn)評(píng)價(jià)標(biāo)準(zhǔn)差異化等因素,開源人工智能并未帶來(lái)比閉源人工智能或其他現(xiàn)有技術(shù)更多的風(fēng)險(xiǎn)??紤]到開源能降低使用門檻,使人工智能技術(shù)更加普及,開源人工智能生態(tài)的濫用誤用情況可能會(huì)增多。由于風(fēng)險(xiǎn)的不可逆和生態(tài)的復(fù)雜性,針對(duì)閉源人工智能的事前源頭管控模式并不適用于開源人工智能的風(fēng)險(xiǎn)管理。一方面,人工智能在開源之后難以完全回溯為封閉形態(tài),無(wú)法通過下架或召回等傳統(tǒng)手段進(jìn)行技術(shù)管理,即便從源頭上刪除也無(wú)法徹底阻斷其傳播和使用。此外,人工智能一經(jīng)開源發(fā)布即保持基礎(chǔ)能力相對(duì)固定,除非開源方迭代另一新版本模型,原版本難以通過開源方的直接修改或社區(qū)開發(fā)者的參與進(jìn)行及時(shí)修復(fù)和優(yōu)化。另一方面,開源人工智能的安全風(fēng)險(xiǎn)并非模型開發(fā)和應(yīng)用的初衷,安全危害的發(fā)生涉及復(fù)雜的上下游生態(tài)鏈。下游各類跨領(lǐng)域、跨場(chǎng)景甚至跨國(guó)界的應(yīng)用主體間相互關(guān)聯(lián)、相互依存。模型只是生態(tài)系統(tǒng)中的一環(huán),而非唯一的風(fēng)險(xiǎn)源。

基于開源人工智能的價(jià)值發(fā)揮與風(fēng)險(xiǎn)特征,歐盟、美國(guó)和國(guó)際組織都嘗試人工智能開源治理機(jī)制的變革,且在路徑選擇上各有側(cè)重。歐盟以“事前風(fēng)險(xiǎn)全域防控+開源豁免除外”實(shí)現(xiàn)利益平衡;美國(guó)則強(qiáng)調(diào)基于“增量風(fēng)險(xiǎn)”原則的責(zé)任分層和多方共治;國(guó)際組織則嘗試從定義層面劃定開源邊界,維護(hù)自由宗旨。

(一)歐盟的開源人工智能治理機(jī)制

歐盟通過綜合性法案,首先確立了對(duì)人工智能全域風(fēng)險(xiǎn)的事前管控,并設(shè)置例外豁免機(jī)制,實(shí)現(xiàn)對(duì)開源人工智能的監(jiān)管放松。

歐盟《人工智能法案》以事前風(fēng)險(xiǎn)防御為核心,旨在通過統(tǒng)一的綜合性立法,識(shí)別并囊括幾乎所有人工智能可能存在的額外風(fēng)險(xiǎn)或單獨(dú)風(fēng)險(xiǎn)。在法案的制定過程中,歐洲議會(huì)于2023年6月14日采納了歐盟委員會(huì)關(guān)于人工智能開源的修訂意見,考慮到開源模式在軟件時(shí)代體現(xiàn)的經(jīng)濟(jì)價(jià)值和有效促進(jìn)技術(shù)創(chuàng)新的價(jià)值,應(yīng)專門針對(duì)開源人工智能進(jìn)行單獨(dú)定義,并設(shè)置“開源豁免+豁免除外”規(guī)則機(jī)制。該機(jī)制要求將開源人工智能納入法律規(guī)制之后,再進(jìn)行利益平衡考量。根據(jù)最終生效法案,相關(guān)條款(如“鑒于條款”第89、102、103、104條)規(guī)定,對(duì)符合定義要求的開源人工智能模型,如果其參數(shù)、架構(gòu)信息和使用信息公開透明,則可免除部分透明度和問責(zé)相關(guān)的義務(wù)要求。歐盟《人工智能法案》通過開源協(xié)議定義前述符合要求的開源人工智能。具體而言,當(dāng)使用的開源許可允許用戶運(yùn)行、復(fù)制、分發(fā)、研究、修改和改進(jìn)軟件及模型,并要求尊重原始模型提供者的署名權(quán)、遵守相同或類似的分發(fā)條款時(shí),該許可應(yīng)被視為符合要求的開源許可,只有此類開源許可的開源人工智能才能享受豁免。

根據(jù)歐盟《人工智能法案》第2、25、53條等相關(guān)條款的規(guī)定,在為人工智能開源提供責(zé)任免除的同時(shí),也設(shè)置了“豁免除外”,具體包括以下幾個(gè)方面:一是版權(quán)合規(guī)除外,即規(guī)定免除的義務(wù)中涉及文本和數(shù)據(jù)挖掘的版權(quán)合規(guī)性義務(wù)不能因開源被豁免;二是透明度除外,模型以開源方式發(fā)布不能直接豁免透明度的基本義務(wù),仍需制定和提供關(guān)于模型訓(xùn)練所使用內(nèi)容的概要,幫助外界了解模型開發(fā)所依賴的數(shù)據(jù)概況;三是系統(tǒng)性風(fēng)險(xiǎn)和被禁止的人工智能除外,即如果開源的通用人工智能模型被認(rèn)定達(dá)到高影響力閾值,存在系統(tǒng)性風(fēng)險(xiǎn),則仍須遵守法案相關(guān)義務(wù);對(duì)法案第5條規(guī)定的“禁止的人工智能實(shí)踐”(如利用人工智能進(jìn)行人類潛意識(shí)操縱與欺騙、利用或針對(duì)特定弱勢(shì)群體、對(duì)個(gè)人或群體進(jìn)行社會(huì)評(píng)分系統(tǒng)、犯罪預(yù)測(cè)、無(wú)目標(biāo)面部數(shù)據(jù)抓取、情緒推斷等),開源豁免不適用;四是商業(yè)利益除外,即如果人工智能模型及其他組件并非完全免費(fèi)提供,而是存在任何形式的商業(yè)化利益(如通過技術(shù)支援、附加服務(wù)收費(fèi),或利用個(gè)人數(shù)據(jù),且目的不僅限于提升軟件的安全性、兼容性或互操作性),這些模型和組件就不享有開源人工智能的特殊豁免政策。

(二)美國(guó)的開源人工智能治理機(jī)制

2024年2月,美國(guó)商務(wù)部國(guó)家電信和信息管理局(NTIA)正式啟動(dòng)了一項(xiàng)針對(duì)開源人工智能治理的公共咨詢流程,并于7月底發(fā)布正式報(bào)告。根據(jù)報(bào)告,美國(guó)強(qiáng)調(diào)基于“增量風(fēng)險(xiǎn)”原則理性認(rèn)知人工智能開源的風(fēng)險(xiǎn),并根據(jù)利益平衡機(jī)制審慎制定監(jiān)管措施。美國(guó)主張目前不需要針對(duì)開源人工智能進(jìn)行額外的單獨(dú)治理,而是應(yīng)構(gòu)建一個(gè)符合技術(shù)發(fā)展特征的敏捷治理框架,通過協(xié)同共治和治理能力的提升,實(shí)現(xiàn)對(duì)風(fēng)險(xiǎn)的長(zhǎng)效管理。

現(xiàn)有的“提供者-使用者”二分機(jī)制過度強(qiáng)調(diào)模型研發(fā)者的責(zé)任,且無(wú)法涵蓋開源人工智能生態(tài)中上下游各方的參與者。因此,現(xiàn)有的責(zé)任機(jī)制不符合開源人工智能的生態(tài)特征,無(wú)法基于各類參與者的角色合理地界定責(zé)任,導(dǎo)致作為底層技術(shù)支持方的云服務(wù)提供商和模型研發(fā)者實(shí)際上承擔(dān)了過多的兜底責(zé)任。對(duì)此,美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)于2025年1月發(fā)布《雙用途基礎(chǔ)模型濫用風(fēng)險(xiǎn)管理指南》(NIST AI 800-1),提出了一套適應(yīng)“云+開源模型”生態(tài)的責(zé)任分層治理框架。該框架明確指出,開源模型的風(fēng)險(xiǎn)不應(yīng)僅由模型研發(fā)方承擔(dān),模型應(yīng)用生態(tài)的各類直接參與方(包括云計(jì)算提供方、模型托管平臺(tái)、下游模型使用者和應(yīng)用開發(fā)者、分發(fā)平臺(tái)、三方評(píng)測(cè)審計(jì)方、用戶等)以及間接參與方(如學(xué)術(shù)機(jī)構(gòu)、外部研究者和政府機(jī)構(gòu)等)都需要根據(jù)自身角色承擔(dān)相應(yīng)責(zé)任。多方合作和協(xié)同治理能夠有效管控模型應(yīng)用風(fēng)險(xiǎn),并通過負(fù)責(zé)任的生態(tài)機(jī)制建設(shè)管控開源人工智能的濫用誤用風(fēng)險(xiǎn)。

在州立法方面,美國(guó)曾進(jìn)行過較嚴(yán)格的開源人工智能監(jiān)管立法嘗試。例如,加利福尼亞州曾于2024年提出《安全與可靠前沿人工智能創(chuàng)新法案》(SB1047),對(duì)模型開發(fā)者提出了系統(tǒng)性風(fēng)險(xiǎn)防范措施和嚴(yán)格的責(zé)任分配方案。一方面,法案設(shè)立了連帶責(zé)任機(jī)制,要求模型開發(fā)者對(duì)下游濫用行為(如非法應(yīng)用或微調(diào))承擔(dān)相應(yīng)的法律責(zé)任,或面臨民事處罰甚至模型被強(qiáng)制關(guān)閉的風(fēng)險(xiǎn);另一方面,法案要求所有符合要求的模型須進(jìn)行安全測(cè)試、提交年度報(bào)告,并接受第三方審計(jì)。這些規(guī)定同樣適用于開源模型。然而,該法案也被批評(píng)缺乏對(duì)技術(shù)和能力的實(shí)證科學(xué)分析,并過度夸大了人工智能領(lǐng)域的風(fēng)險(xiǎn),可能以犧牲技術(shù)創(chuàng)新為代價(jià),損害公共利益。最終,該法案在通過地方立法機(jī)構(gòu)后被該州州長(zhǎng)否決,未能正式生效。

(三)國(guó)際組織的開源人工智能治理機(jī)制

除了各國(guó)開展的開源人工智能治理外,長(zhǎng)期致力于開源治理的專門機(jī)構(gòu)也提出了相關(guān)治理方案。

開放源代碼促進(jìn)會(huì)(OSI)嘗試對(duì)開源人工智能進(jìn)行定義。定義開源人工智能面臨較大困難:一方面,開源人工智能具有新穎性,開源模型與開源軟件在開發(fā)方式、構(gòu)成要件、部署應(yīng)用等多個(gè)方面均呈現(xiàn)不同,因此,基于舊有的軟件開源定義無(wú)法直接套用于開源人工智能;另一方面,開源人工智能尚處于動(dòng)態(tài)發(fā)展階段,呈現(xiàn)出較強(qiáng)的復(fù)雜性、動(dòng)態(tài)性和不確定性,人工智能模型的開閉源界限模糊且動(dòng)態(tài)演變,靜態(tài)定義難以跟上技術(shù)的迭代更新。

在這一背景下,OSI于2024年10月推出了開源人工智能定義的第一代版本(OSAID)。該版本包含三個(gè)主要部分:一是“前言”,解釋了為什么需要開源人工智能,認(rèn)為“對(duì)于人工智能,至少需要與開源相同的基本自由”,確保人工智能開發(fā)者、部署者和最終用戶能夠享受開源所帶來(lái)的自主性、透明度、無(wú)阻礙使用和協(xié)作改進(jìn)等好處;二是“定義的主體內(nèi)容”,解釋了構(gòu)成開源人工智能的前提條件,包括原則和構(gòu)成要件兩大部分。原則部分提出四大“自由”,即無(wú)需征得許可并用于任何目的的使用自由、探究系統(tǒng)工作原理并檢查其組件的研究自由、允許人們?yōu)槿魏文康男薷南到y(tǒng)的自由、無(wú)論是否經(jīng)過修改可出于任何目的共享給他人的自由,同時(shí)明確指出對(duì)系統(tǒng)整體和各獨(dú)立的組成要素的要求須一致。獨(dú)立組成要素包括數(shù)據(jù)信息、代碼和參數(shù)三個(gè)要素,并對(duì)每個(gè)要素都進(jìn)行了相應(yīng)的舉例;三是“名詞解釋”,解釋了開源人工智能相關(guān)部分特有技術(shù)名詞,闡明了開源模型、開源權(quán)重、人工智能系統(tǒng)和機(jī)器學(xué)習(xí)等核心組件,區(qū)別于傳統(tǒng)軟件開源的特有技術(shù)內(nèi)容。

總體上看,OSI的定義延續(xù)了傳統(tǒng)開源軟件的定義思路,將開源人工智能的目標(biāo)聚焦如何賦予使用者以盡可能無(wú)限制的“自由”,以便構(gòu)建和部署開源人工智能系統(tǒng)。OSI明確提出,進(jìn)行開源人工智能定義的主要目標(biāo)是認(rèn)識(shí)到“將目前的傳統(tǒng)開源軟件代碼和許可證原則應(yīng)用于人工智能組件時(shí),已不足以保證使用、研究、分享和修改系統(tǒng)的自由”。這一考慮貫穿了整個(gè)OSAID的制定過程:自2023年7月第一次召開針對(duì)OSAID的會(huì)議討論以來(lái),OSI強(qiáng)調(diào)“開源旨在讓用戶擁有軟件自主權(quán)”,而開源人工智能也應(yīng)旨在讓用戶在使用人工智能系統(tǒng)時(shí)擁有這種自主權(quán)。此外,在11輪的定義版本更新中,唯一沒有大幅變動(dòng)的便是前言中關(guān)于四大“自由”的要求。

二、“嚴(yán)格定義-總體控制-局部豁免”與人工智能開源不適配

從政策制定角度看,OSI的開源人工智能定義和歐盟《人工智能法案》的開源豁免機(jī)制,本質(zhì)上并未認(rèn)可開源人工智能是一種技術(shù)創(chuàng)新和擴(kuò)散的路徑。它們沒有從順應(yīng)技術(shù)發(fā)展的角度重構(gòu)治理制度,而是把傳統(tǒng)法律框架置于技術(shù)發(fā)展規(guī)律之上,通過嚴(yán)格定義將開源人工智能視為一種獨(dú)立的、靜態(tài)的監(jiān)管對(duì)象,采取“削足適履”的方式將其納入現(xiàn)有的監(jiān)管體系。當(dāng)法案通過“符合開源條件即可免除合規(guī)義務(wù)”作為激勵(lì)工具時(shí),其隱含的前提是現(xiàn)有監(jiān)管框架的核心邏輯無(wú)須調(diào)整,只須將開源視為可控的“例外空間”。這一預(yù)設(shè)折射出立法者在應(yīng)對(duì)技術(shù)變革時(shí)的路徑依賴,試圖通過局部豁免緩解制度與創(chuàng)新的沖突,而非重構(gòu)治理范式適應(yīng)開源生態(tài)的獨(dú)特性。“嚴(yán)格定義-總體控制-局部豁免”的矛盾在于,它與開源生態(tài)的自組織特點(diǎn)難以兼容。

從定義角度,開源生態(tài)是“能力建設(shè)”而非“產(chǎn)品服務(wù)”。與傳統(tǒng)軟件開源強(qiáng)調(diào)的“自由使用、復(fù)制、修改、分發(fā)源碼”不同,模型開源應(yīng)更強(qiáng)調(diào)降低大模型的使用門檻,實(shí)現(xiàn)模型能力的普惠,讓更多人能夠使用人工智能技術(shù),并參與人工智能技術(shù)的開發(fā)、應(yīng)用和推廣過程。然而,OSI堅(jiān)持以“自由”為核心的傳統(tǒng)軟件開源原則,并未充分體現(xiàn)模型開源與軟件開源在目標(biāo)價(jià)值上的本質(zhì)區(qū)別。雖然在多輪迭代中,OSI也吸納了一部分產(chǎn)業(yè)觀點(diǎn),從嚴(yán)格要求可復(fù)現(xiàn)性和不允許開源協(xié)議施加任何使用限制,逐漸轉(zhuǎn)變?yōu)槌姓J(rèn)百分百的可復(fù)現(xiàn)并非開源人工智能的目標(biāo),并不再明確反對(duì)使用限制,但該定義仍然過于嚴(yán)苛,并非所有的開發(fā)者都有充足的資源和能力提供OSI要求的所有組件并達(dá)到相應(yīng)的效果,進(jìn)而滿足他人研究、修改、使用和分發(fā)的自由。這種嚴(yán)格定義可能存在矯枉過正的風(fēng)險(xiǎn),降低模型開源貢獻(xiàn)參與的積極性,從而偏離模型開源以“可用性”為核心的價(jià)值所在。

從風(fēng)險(xiǎn)管控角度看,開源的分布式協(xié)作形成了一種新型的風(fēng)險(xiǎn)控制生態(tài)。通過廣泛的開發(fā)者和參與者的自律自治和內(nèi)生規(guī)則,能夠?qū)崿F(xiàn)動(dòng)態(tài)的利益平衡和默認(rèn)的規(guī)則遵循。這種方式比靜態(tài)合規(guī)更能適應(yīng)人工智能技術(shù)的進(jìn)化速度。例如,目前對(duì)人工智能安全的研究絕大部分基于開源人工智能,推動(dòng)了人工智能安全技術(shù)的發(fā)展,也讓人工智能總體的安全性不斷提高。同時(shí),開源生態(tài)的專業(yè)開發(fā)者相互監(jiān)督,人工智能安全評(píng)測(cè)的可信度更高,也更容易發(fā)現(xiàn)和修復(fù)安全漏洞。更充分且對(duì)稱的安全信息提高了開源人工智能的透明度,可以提前發(fā)現(xiàn)風(fēng)險(xiǎn)、群策群力并及時(shí)進(jìn)行風(fēng)險(xiǎn)處置。

三、構(gòu)建適配開源人工智能特征的治理機(jī)制

隨著人工智能從研發(fā)走向應(yīng)用,在技術(shù)存在高度不確定性、產(chǎn)業(yè)應(yīng)用需求多樣化的背景下,社會(huì)可獲取的模型、工具以及技術(shù)解決方案的選擇應(yīng)盡可能多樣。對(duì)開源人工智能實(shí)行較寬松的監(jiān)管政策,并非放任風(fēng)險(xiǎn),而是從技術(shù)工具的視角重新審視人工智能開源的價(jià)值,采用生態(tài)建設(shè)的方式管控風(fēng)險(xiǎn)并分配責(zé)任??紤]到開源對(duì)我國(guó)人工智能高質(zhì)量發(fā)展的重要作用,以及人工智能開源帶來(lái)的客觀風(fēng)險(xiǎn)特征,本文對(duì)我國(guó)開源人工智能治理提出以下建議。

第一,尊重開源生態(tài)的自組織性,包容人工智能開源的多樣性。賈開曾在《人工智能爭(zhēng)議之一:開源是發(fā)展AI的合適路徑嗎?——從經(jīng)濟(jì)民主視角理解開源在AI時(shí)代的挑戰(zhàn)與革新》一文中提出,開源人工智能的有序發(fā)展依賴開源生態(tài)的自演進(jìn)和自組織性,單純依賴傳統(tǒng)的合規(guī)豁免規(guī)制反而無(wú)法適配生態(tài)自然發(fā)展的規(guī)律。鼓勵(lì)開源人工智能的最終目標(biāo)是降低全社會(huì)獲取、使用和改進(jìn)人工智能技術(shù)的綜合成本,從而實(shí)現(xiàn)技術(shù)的廣泛擴(kuò)散和公共知識(shí)的積累。因此,政策評(píng)判標(biāo)準(zhǔn)應(yīng)轉(zhuǎn)換為多樣化的視角,判斷開源人工智能能否更充分地且負(fù)責(zé)任地被使用,政策重心應(yīng)從監(jiān)管開源轉(zhuǎn)向降低開源技術(shù)流動(dòng)的阻力,保障市場(chǎng)與社區(qū)選擇的自主權(quán)和公平性,將治理資源用于提高算力接入公平性、接口協(xié)議標(biāo)準(zhǔn)化和知識(shí)共享可持續(xù)性等開源基礎(chǔ)設(shè)施建設(shè)。

第二,提高開源人工智能的專業(yè)評(píng)價(jià)和反饋,推動(dòng)“眾人拾柴火焰高”的正向循環(huán)。與開源軟件開發(fā)過程中共同改代碼、實(shí)時(shí)反饋的方式實(shí)現(xiàn)技術(shù)進(jìn)步不同,開源人工智能的階段式訓(xùn)練模式對(duì)評(píng)價(jià)和反饋的專業(yè)性和體系性要求較高,需要在較短時(shí)間內(nèi)將開源人工智能應(yīng)用于多樣化的場(chǎng)景,評(píng)估人工智能的性能,測(cè)試人工智能的安全。對(duì)于開源人工智能而言,專業(yè)化的用戶越多,經(jīng)驗(yàn)反饋和交流得越豐富,才能更好地構(gòu)建起圍繞技術(shù)建立的生態(tài),開源對(duì)技術(shù)和產(chǎn)業(yè)助益才能充分體現(xiàn)。開源人工智能需要鼓勵(lì)普惠,包括更多強(qiáng)調(diào)使用成本的降低、提供更具多樣性的技術(shù)路線和選擇方案,以及在合法性和價(jià)值對(duì)齊方面的透明度等。通過不斷提高開發(fā)者和使用者的專業(yè)度水平,推動(dòng)開源人工智能持續(xù)創(chuàng)新和發(fā)展。

第三,推動(dòng)公共知識(shí)的積累,提高開源人工智能生態(tài)治理的確定性。開源人工智能治理的目標(biāo)不僅是防范風(fēng)險(xiǎn),還需要為技術(shù)的負(fù)責(zé)任發(fā)展提供可操作、可借鑒的實(shí)施路徑,通過促進(jìn)合作和增進(jìn)公共知識(shí)提高治理的確定性。同時(shí),堅(jiān)持“人工智能安全作為公共產(chǎn)品”的基本理念,注重信息共享和披露,支持開放透明的人工智能研發(fā)與應(yīng)用,鼓勵(lì)學(xué)術(shù)機(jī)構(gòu)、開源社區(qū)和公眾用戶進(jìn)行監(jiān)督,根據(jù)各個(gè)主體在開源人工智能生態(tài)的角色進(jìn)行責(zé)任設(shè)定,為負(fù)責(zé)任的開源人工智能提供更多的確定性。

(本文刊登于《中國(guó)信息安全》雜志2025年第2期)

聲明:本文來(lái)自中國(guó)信息安全,稿件和圖片版權(quán)均歸原作者所有。所涉觀點(diǎn)不代表東方安全立場(chǎng),轉(zhuǎn)載目的在于傳遞更多信息。如有侵權(quán),請(qǐng)聯(lián)系rhliu@skdlabs.com,我們將及時(shí)按原作者或權(quán)利人的意愿予以更正。

上一篇:密碼學(xué)中的量子隱形傳態(tài):通過量子力學(xué)開啟安全通信之門

下一篇:開源郵件系統(tǒng)RoundCube漏洞遭利用:竊密器數(shù)據(jù)如何濫用CVE-2025-49113