【智慧城市網 市場分析】 進入2024年,攻擊面將進一步擴大,威脅可能變得越來越難以捉摸。考慮到基于AI和大型語言模型的工具的功能和可訪問性越來越強,必須領先于威脅參與者幾步,并了解2024年將采取什么策略。
1.自定義類ChatGPT機器人:精心制作令人信服的社交攻擊
OpenAI的定制GPT是黑客將在2024年利用的強大新工具的主要例子,考慮到它們的易用性,那些技術水平低得多的人可以利用它們來設計和發動極具說服力的社交攻擊。
設想一個場景,攻擊者使用ChatGPT生成的文本偽裝成經理或部門負責人,他們向毫無戒心的員工發送一個類似WhatsApp的應用程序的鏈接,在該應用程序中,他們將與GPT“經理”進行對話,說服他們轉賬或分享敏感數據,以類似的方式,GenAI服務可以被用來指示受害者與GPT支持的“服務臺”或“IT代表”進行對話,這些欺騙性的攻擊在整個企業中已經變得更加常見,并且只會隨著新的GenAI工具和功能的出現而增長。
僅依靠員工意識不足以識別和預防此類威脅,因此,必須優先維護強大的安全協議。
2.SaaS應用作為隱形攻擊載體:向TeamsPhisher學習
2024年,網絡犯罪分子將繼續利用現代SaaS應用程序,將惡意有效負載嵌入云中,并利用低掛起的安全漏洞。隨著疫情的蔓延和遠程工作環境的興起,這些隱蔽的策略繼續在雷達下飛行,并在公司的防御中戳出漏洞。
就在今年夏天,威脅參與者使用一種名為TeamsPhisher的惡意開源程序,通過微軟團隊向毫無戒備的用戶發送釣魚誘餌,以實施隨后的網絡攻擊,包括勒索軟件攻擊,這突顯了SaaS應用作為威脅參與者的無意幫兇的重要性。
公司應該預料到,這種攻擊媒介的繼續存在是一個強大的網絡前沿,并相應地加強他們的安全框架。
3.網絡攻擊戰役中AI驅動的自動化:未來一瞥
在開發人員和安全團隊手中,AI提高了生產率,簡化了眾多業務運營,但在威脅參與者手中,它可以被用來破壞公司的防御并提取敏感數據。
攻擊者準備利用AI日益增長的自動化能力,以極高的效率和精確度識別云基礎設施中的漏洞,并準確地開展惡意電子郵件活動。因此,盡管AI驅動的自動化可以減輕所有行業辦公室員工的大量工作量,但它賦予了威脅參與者同樣的奢侈品。
4.深度偽裝和多通道ML模型:欺騙的演變
停留在AI領域,多模式ML模型為攻擊者提供了生成令人信服的音頻、圖像和視頻的能力,以欺騙毫無戒心的員工。
隨著深度假冒活動在2023年增加了驚人的3000%,這項復雜的技術正被用來創建幾乎無法與合法信件區分開來的信件,同時也有更便宜、更容易使用的好處。
這種欺騙做法將繼續對無數公司構成嚴重威脅,隨著這些模型的復雜性和制造能力的成熟,教育工作人員識別和報告企圖的違規和錯誤信息活動將變得至關重要。
5.防范LLM支持的服務中的敵意提示:創業前沿
隨著LLM支持的服務在整個公司工作流程中繼續激增,公司領導人將需要建立強大的保護,以抵御惡意即時注入 - LLM的輸入被設計為操縱輸出或改變標準處理程序。
不幸的是,公司出于垂直或特定于運營的培訓目的而選擇將內部數據輸入LLM的情況很容易暴露。通過輸入精心設計的提示,黑客可以操縱LLM泄露敏感數據,這可能會違反合規規定并被罰款,數據安全中的此類漏洞需要積極主動的解決方案。
因此,對于依賴LLM支持的服務的公司來說,在緩解這些挑戰方面的遠見卓識將是至關重要的,這將為一套新的解決方案奠定基礎,這些解決方案致力于防止敵對提示危及數據安全。
領先一步
隨著AI的不斷成熟,威脅格局也在不斷成熟,應對AI系統帶來的網絡攻擊將是整個2024年的一個關鍵商業目標。
通過部署工具和分層解決方案來識別和解決正在進行的打擊黑客的新戰線,公司將能夠領先于他們的數字對手一步。
我要評論
所有評論僅代表網友意見,與本站立場無關。