亚洲日本免费-啊轻点灬太粗太长了三男一女-麻豆av电影在线观看-日韩一级片毛片|www.grbbt.com

資深專家預測:2024年生成式AI將會如何改變網絡安全?

當前人工智能(AI)功能在不斷增強和復雜化,這一趨勢對于那些運用生成式AI技術的首席信息安全官(CISO)來說更加顯著。網絡安全供應商正面臨著利用生成式AI來降低失敗風險的挑戰。此外,攻擊策略的演變、AI的武器化,以及社交工程手段的應用,已經導致多家全球領先企業遭遇重大挫折。

日前,專業IT媒體VentureBeat采訪了多位資深網絡安全專家,聽取他們對2024年生成式AI技術將會如何影響網絡安全發展的預測。專家們普遍認為:盡管生成式AI技術會降低網絡犯罪的進入門檻,升級企業現有的風險態勢,但同時也會給企業網絡安全建設帶來很大幫助,AI專業人員和網絡安全團隊應該尋求更加緊密的合作。

1

“生成式AI技術應用正在帶來新的安全盲區”

——CrowdStrike首席技術官Elia Zaitsev

2024年,我們預計,攻擊者會把AI系統作為攻擊的重點目標,并視其為一種新的威脅利用途徑。通過合法AI應用系統中的安全漏洞,以及員工未經批準使用的影子AI工具帶來的安全盲區,攻擊者可以更容易地攻擊組織。防護AI技術的安全性盲區,企業安全團隊仍處于早期階段,這些盲區和新技術為企圖攻擊企業的惡意人員打開了大門,這迫使企業組織必須盡快面對新的數據安全風險。

因此,企業組織在2024年需要重新審視內部威脅,了解AI技術引入的各個環節,評估其風險狀況,并制定相應的防護指導方針,以確保安全負責地使用,盡量降低企業風險和安全支出,同時實現其應用價值的最大化。

2

“組織的網絡安全防護工作不能過度依賴AI”

——CyCognito首席執行官Rob Gurzeev

我始終認為,生成式AI技術會對企業的網絡安全防護工作產生積極影響,但是有一個重要問題需要強調,就是AI技術可能讓企業的安全運營團隊變得過于自負。2024年,如果企業組織過度依賴AI技術,就可能導致組織的日常安全運營缺乏監管,這就很容易導致在攻擊面管理上出現缺口。

3

“生成式AI日趨成熟,能夠幫助企業加強安全防御”

——Cyberhaven首席執行官Ting Howard

Cyberhaven得到的數據顯示,4.7%的員工曾將機密數據輸入到ChatGPT中,其中11%的數據是敏感數據。但我確實認為,局面最終會好轉。隨著大語言模型(LLM)和生成式AI 日趨成熟,安全團隊將能夠用它們來加強防御。生成式AI大有潛力幫助安全團隊處理目前難以處理的大量事件數據。傳統的數據湖和基礎的SIEM側重收集數據,而更注重對話的界面可以大大提高用途。

4

“生成式AI技術將成為閉環OT防御的有效方法”

——霍尼韋爾互聯企業首席技術官Jason Urso

關鍵基礎設施一直是網絡攻擊者的主要攻擊目標。但這些攻擊要求很高的專業性,需要極其復雜的手法,并不是普通黑客就能夠具備的。為了更有效地對抗專業網絡攻擊者,我認為生成式AI技術將會在2024年成為閉環OT防御的一種有效方法,這種防御能夠實時基于威脅格局方面的變化,動態改變安全配置和防御規則,并執行自動滲透測試以標注面臨風險的變化。

5

“可靠的生成式AI應用需要由人來監管”

——Ivanti首席產品官Srinivas Mukkamala

2024年,隨著ChatGPT被廣泛應用,很多人開始擔心生成式AI技術會對其職業生涯產生影響。根據我們的市場研究發現,近三分之二受訪IT員工擔心生成式AI在未來五年內將取代其工作。因此,企業管理者需要向員工明確闡述計劃如何實施AI,以便穩定現有的人才團隊。需要指出的是,可靠的AI技術應用必須由人來監管。2024年,越來越普遍的AI工具將使社會工程攻擊更具欺騙性。由于企業提高了檢測傳統網絡釣魚郵件的能力,惡意黑客已轉向新技術,確保誘餌更讓人信以為真。此外,攻擊者和不懷好意的人利用這些AI工具生成虛假信息,將對組織、政府和所有人構成挑戰和威脅。

6

“別擔心,生成式AI技術不會接管世界”

——Lacework?首席網絡安全官?Merritt Baer

別擔心,生成式AI技術不會接管世界,但很多傳統工作的性質確實會發生變化。在2024年,我們會看到生成式AI技術將能夠大量地自動處理重復性任務,它們不僅能提示程序員編寫自動化程序,還有望建議編寫修復腳本或為漏洞補丁所需的代碼。但是,人類特有的創造性思維才是至關重要的,而AI技術所擅長的是如何可靠處理,從龐大數據集中導出模式,并精準地執行操作。

7

“安全團隊需要借助AI來跟上應用開發的步伐”

——派拓網絡高級副總裁Ankur Shah

今天的安全團隊完全跟不上應用程序開發的節奏,這導致無數的安全風險更快速地進入到企業的生產環境中。2024年,生成式AI技術或將使應用程序的開發節奏進一步加快,開發人員將利用這項技術以前所未有的速度編寫和發布新的應用。為了確保安全團隊跟上步伐,企業也必須將AI技術應用到安全防護中。但AI技術在安全防護中的應用會面臨一個數據問題,如果沒有可靠的安全數據來訓練AI,其阻止風險的能力就無從談起。

現在,安全分析師不僅需要能夠了解攻擊者如何潛入,還需要了解如何創建復雜的自動化和查詢,以便面對大量數據高效處理。在2024年,借助生成式AI技術,它們與數據進行交互的過程將變得更流暢。

8

“企業需要加快應對AI威脅的步伐”

——Telesign首席執行官Christophe Van de Weyer

AI技術能夠幫助安全團隊發現新的攻擊模式、新興CVE或表明企圖破壞的某些行為。但AI技術也同時加大了企業對新型威脅的識別難度,因為現有的威脅檢測系統往往無法區分由人工生成的網絡釣魚攻擊還是AI生成的網絡釣魚攻擊。2024年,企業需要加快、加強對AI應用威脅防御的步伐,而做好身份賬戶的完整性防護將是關鍵。企業應該基于持續分析欺詐信號,利用AI評估登錄和交易的風險大小。網絡安全服務商也應該擴大機器學習所能識別的欺詐種類,為加強保護措施提供依據。

9

“AI技術應該成為CISO必須掌握的專業技能”

——WinWire首席技術官Vineet Arora

企業的網絡安全管理和運營人員現在需要監控和管理的數據非常龐大。隨著云計算和智能邊緣設備的更廣泛部署,企業的數據量在未來幾年還會進一步增長。而AI技術非常適合解決網絡安全工作中圍繞威脅檢測、篩選和響應方面一些最困難的問題。因此我認為,生成式AI技術在2024年會成為每個CISO都必須熟練使用的必要技能之一。

生成式AI將顯著增強安全從業者在日常工作中的專業能力。特別是在威脅情報、安全加固、滲透測試和檢測工程等目前由人工完成的工作場景下,生成式AI技術能夠大大提高流程的自動化程度。同時,許多枯燥的日常安全運營任務(比如日志分析、事件響應和安全補丁)都可以通過生成式AI實現自動化,從而為安全分析師節約寶貴的時間,致力于更復雜的網絡安全問題。當然,我們也必須留意,惡意攻擊者利用生成式AI為社會工程攻擊、惡意軟件以及復雜的網絡釣魚活動帶來更加逼真的場景模擬。

10

“未來的網絡安全工作一定是由AI技術來主導”

——Zscaler首席人工智能官Claudionor?Coelho

生成式AI技術的廣泛應用將在2024年將對企業的合規工作產生重大而深遠的影響。在過去,合規是一項耗時的工作,涉及制定法規、實行約束、獲取證據以及回應客戶問題。2024年,上述的很多工作都可以自動化的文本和程序來實現。

我們認為這將是未來網絡安全工作的主要運作方式,未來將會是AI技術主導的天下。由于今天的數據和安全防護模型過于復雜和龐大,因此不能指望通過人工團隊來閱讀和解釋它們,生成式AI將促使網絡安全技術更快速地向前發展。

來源:安全牛

上一篇:《信創安全能力建設技術指南》報告發布

下一篇:2023年GenAI技術應用趨勢觀察