2月29日消息,奇安信集團發布《2024人工智能安全報告》(以下簡稱《報告》)。《報告》認為,人工智能技術的惡意使用將快速增長,在政治安全、網絡安全、物理安全和軍事安全等方面構成嚴重威脅。
《報告》認為,“AI是一種通用技術,通用就意味著既可以用來做好事,也可以被用來干壞事”。具有巨大潛力的AI技術同時帶來兩大主要挑戰:一是放大現有威脅,另一個是引入新型威脅。
奇安信預計,未來十年,人工智能技術的惡意使用將快速增長,將在政治安全、網絡安全、物理安全和軍事安全等方面構成嚴重威脅。
報告數據顯示,2023年基于AI的深度偽造欺詐暴增了3000%,基于AI的釣魚郵件數量增長了1000%;奇安信威脅情報中心監測發現,已有多個有國家背景的APT組織利用AI實施了十余起網絡攻擊事件。各類基于AI的新型攻擊種類與手段不斷出現,甚至出現泛濫,包括深度偽造(Deepfake)、黑產大語言模型、惡意AI機器人、自動化攻擊等,在全球造成了嚴重危害。
同時,《報告》深入研究了基于AI的深度偽造(Deepfake)、黑產大語言模型基礎設施、利用AI的自動化攻擊、AI武器化、LLM自身安全風險、惡意軟件、釣魚郵件、虛假內容和活動生成、硬件傳感器安全等12種重要威脅,對其技術原理、危害情況、真實案例等進行了深入的剖析,旨在讓業界更全面的認識到AI普及帶來的兩大主要挑戰:一方面放大了現有威脅,比如釣魚郵件、惡意軟件和社會工程學等;另一方面是引入了新型威脅,如AI自動化攻擊、AI深度偽造等。
行業資訊、企業動態、業界觀點、峰會活動可發送郵件至news#citmt.cn(把#換成@)。
海報生成中...