亚洲日本免费-啊轻点灬太粗太长了三男一女-麻豆av电影在线观看-日韩一级片毛片|www.grbbt.com

CSIS報告:AI監管將至,未來路在何方?

2023年10月,美國戰略與國際研究中心(CSIS)發布題為《AI監管將至,路在何方?》(AI regulation is coming, what is the likely outcome?)的報告。該報告介紹了當下AI監管現狀,對美國自上而下的“拼湊式”AI監管手段進行了深入的分析,展現了當下AI監管論戰的核心和相關各方對此議題的看法與觀點;此外,本報告定義了AI監管十大關鍵要素,根據美國的AI監管現狀對其未來AI監管走勢進行了預測。

摘譯 |?許藝凡/賽博研究院實習研究員

來源 |?CSIS

01

AI監管現狀回顧

多個國家及國際組織已出臺AI監管相關舉措,其中的代表性例子為歐盟《人工智能法案》,該法案提供了大量自上而下式監管規則;中國國家網信辦等部門聯合發布的《生成式人工智能服務管理暫行辦法》則提出對生成式AI服務實行包容審慎及分類分級監管措施。而本報告發現,美國采取的則是分散式AI監管措施,即各行政部門自上而下進行分散式管理。

與歐洲不同的是,美國不太可能在未來幾年內推出一部全面的AI法案,但這并不意味著美國在這一領域將無法可依。美國極有可能會對特定部門采取管理措施,如醫療、金融、房產、兒童安全保障等;除此以外,美國也可能出臺多項行政命令,如果方法得當,那么這些規則將會有特定部門的專業知識作為根基,更加符合AI管理創新的要求。

本報告指出,美國政府很可能會增加AI研發投入,尤其是在國防安全領域及智能領域,并利用其較強的購買力來發展AI市場。然而,本報告認為美國將會與歐洲在AI貿易方面產生摩擦、美國聯邦貿易委員會及司法部門可能會發出警告以防止大型科技公司集中使用AI技術。

02

AI監管論戰:三種不同的聲音

本報告指出了當下關于AI監管日趨激烈的論戰,這場論戰折射出世界各國相關人士在對AI技術寄予厚望的同時,亦對其抱有較深的恐懼心理。

本報告指出,人們對AI技術懷有倫理恐懼與偏執心理。AI領域內的計算機科學家們向人們發出警告稱,生成式AI存在威脅人類生存的巨大風險,包括比爾蓋茨、谷歌、微軟、OpenAI的高管人員以及中國、俄羅斯的AI領域專家在內的行業人士聯合簽署了一份聲明,呼吁緩解這種威脅給人們造成的恐慌,同時,領域內也出現了呼吁暫停開發比ChatGPT 4更為先進的AI模型。

然而,AI領域內仍然有對AI技術發展持樂觀態度的人士。風險投資家安德森認為,AI具有拯救世界的力量;不少行業人士則批判科技公司正在廣泛地販賣焦慮、推動AI監管進程以此來維護自身的經濟利益,他們指出,不應對AI技術產生任何擔憂,同時也應允許公司及開放源代碼盡己所能快速高效地構建AI。

除了上述兩種觀點以外,還有許多企業以及民間社會組織提倡對AI實行不同程度的監督。例如,微軟公司提出,可以構建全新的政府AI機構,并搭建起一個新的AI法律框架,要求控制關鍵基礎設施的AI系統必須進行安全制動,并專門為負責運行關鍵AI技術的數據中心頒發許可證。

03

AI監管十大關鍵要素

為了協助監管者更加高效地應對AI監管問題,本報告定義了關于AI監管的十大關鍵要素。

要素一:AI監管的首要目標,是保證監管措施的透明度、公正性、可解釋性、安全性及信任度。這五大要素決定著監管者能否成功實現對AI的有效監管。AI監管過程中衍生出的許多具體的問題,如披露模型特點與模型偏差、告知用戶應用風險以及進行獨立模型安全性測試,都需要有這些要素作為有力支撐;

要素二:基于風險程度的監管方法。AI監管的難度隨著其普及程度的提高而增加。許多專業人士提出可以采用基于風險程度的監管措施,即對可能造成更大損害的高風險AI技術加強監管力度,對低風險AI技術則相應地降低監管力度。然而,本報告指出此種辦法在實踐過程中會遇到不少阻礙,例如由誰來定義及衡量風險程度、如何定義及風險等問題;

要素三:降低風險并更好地應對惡意行為。AI監管規則需要反映出遵守規則的合法企業與企圖實施惡意行為的個人或群體之間的區別。對于將實現危險的目標作為追求(如盜竊、妨害人身安全、損害兒童安全等)的惡意行為(網絡攻擊、網絡犯罪等)需要制定更加強有力且更具威懾性的規則與懲罰機制;

要素四:創新及預先批準。歐盟、微軟公司及OpenAI的監管方法要求政府對高風險領域的AI模型進行預先審批或授權。在AI技術飛速發展的背景下,這一點變得十分重要?;ヂ摼W之所以能夠快速進行創新,在一定程度上是因為沒有進行預先審批,從而讓任何個人或群體都可以在不經許可的情況下在網絡上發布合法應用。人們都希望能夠實現創新,但預先批準機制有可能會制造市場準入壁壘,從而對創新及開放競爭造成不利影響;

要素五:數據流、數據隱私及數據安全。AI對于高質量數據的依賴性極高,模型的準確性及結果直接反映出了訓練數據,因此,數據監管可謂是AI監管的核心。AI可能會放大數據隱私相關問題,數據流及數據安全也都與AI監管相關,這些之前就已經存在的問題需要相關措施來協助解決;

要素六:新法律是否出臺。許多的AI技術風險都可以通過已有機構進行處理。例如,美國聯邦貿易委員會有權監管AI深度偽造等虛假行為;平等就業促進機構也正在積極應對AI模型在招聘職員的過程中可能存在著的偏見問題。然而,本報告指出,當下現有法律與AI在適配方面依然存在著諸多問題,因此,部分公司,例如微軟,已經提出了“根據AI技術架構構建更為廣泛的法律及監管機制”。當然,也有不少人反對此舉,認為現有的法律法規已經能夠幫助實現對AI的有效監管;

要素七:機構措施。本報告指出,人們有必要去思考AI所帶來的挑戰的獨特性,以及設立專門的AI監管機構的必要性。關于這一問題,微軟等公司建議設立全新的政府AI機構,解決“高性能AI基礎模型”等問題,這種舉措可以帶來更多的資源及專業知識。不過,該舉措也存在著一定的缺陷,因為新的AI機構可能會帶來監管方面的“博弈”、決策低效、官僚主義等一系列問題,需要專業人士對此進行進一步的研判;

要素八:“胡蘿卜”+“大棒”。“胡蘿卜”指的是激勵措施,而“大棒”則指的是懲罰措施,獎懲并舉時,AI監管效果才能夠達到最佳。例如,谷歌公司注重AI成果,訓練員工以幫助他們更好地掌握AI,同時還大力投資AI創新;歐盟則通過推行《人工智能法案》采取強有力的懲罰機制,其中包括嚴厲的經濟懲罰措施;

要素九:監管范圍。人們希望AI技術在高風險用途方面不僅能夠適用于模型開發者,且能夠適用于應用程序及其運行的信息技術基礎設施。例如,只將用于支撐關鍵基礎設施的AI技術部署于獲得認證許可的AI數據中心,這一舉措在未來可能會擴大AI監管領域。

要素十:國際協調機制。不同的國家在AI監管規則方面難免會出現沖突,例如,歐盟《人工智能法案》中的舉措相較于美國的監管舉措更加科學高效。因此,如何更好地協調各國AI監管,仍需要各國共同努力。

04

美國未來AI監管道路

對于美國未來AI監管情況,本報告作出了以下推斷:

1、在未來幾年內,美國推行類似于歐盟《人工智能法案》的法律法規的可能性很低。報告認為,美國可能會更多地在AI權利法案上繼續努力;

2、私營科技企業會推動AI計劃,為客戶提供更高質量的服務。這種舉措也可以幫助企業避免政府所采取的嚴厲管制措施;

3、聯邦政府對AI及AI研究方面的投入將不斷擴大。此種投入同時也包括對非營利組織及高校的相關投入,以此來提升國家科技及經濟競爭力;

4、聯邦政府將會制定并推行限制聯邦機構中可能會滋生AI偏見及風險的行政命令。這種舉措可以為公民提供更加完善的服務,并增強AI的安全性;

5、聯邦政府將不斷加強AI風險管理、標準、審計與評估

6、美國各州及各市可能會采取有針對性的行動。例如,加利福尼亞州可能會通過一項AI法案,以此推動美國AI監管環境的改變,但本報告認為,此種可能性較低;

7、全球監管環境可能會因國家之間的貿易摩擦而出現危機

8、反壟斷機構會推動防止“大科技”公司主導的AI虛假行為及基于AI的欺詐行為;

9、AI可能將在軍事、智能等領域得到應用;

10、科技競爭可能會使美國對于先進圖形處理器等AI技術的出口及對相關投資的管制逐步擴大和延伸。

來源:賽博研究院

上一篇:新形勢下我國工業領域關鍵信息基礎設施安全保護工作實踐與探討

下一篇:盤點:2023年發布的10大熱門網絡安全新品