以突破性創新應對
面對更複雜的網路生態系統,人工智慧 (AI) 可透過增強防禦者的技術、速度和知識,以提供改變安全性環境的機會。
AI 也可以啟用新功能,例如使用大型語言模型 (LLM),從複雜的資料產生自然語言見解和建議,以及提供分析師學習的新機會。
在 2023 年 Microsoft 數位防禦報告中,我們探索了一些 AI 威脅,這些威脅正在轉變網路安全性、與 AI 和 LLM 相關聯的風險,以及如何確保它們用於建立更安全且更有復原力的數位未來。
如何運用 LLM 進行網路防禦?
-
威脅情報和分析
LLM 可協助網路防禦者收集及分析資料,以尋找網路威脅的模式和趨勢。其也可以使用不同來源的資訊來新增內容至威脅情報,並執行反向工程和惡意程式碼分析等技術工作。
-
安全性事件回應和復原
LLM 可協助網路防禦者支援並自動化安全性事件回應和復原,包括事件分級、內含項目、攻擊、分析和復原。其可以摘要事件並產生回應自動化指令碼、協調小組,以及記錄並傳達事件詳細資料與動作。LLM 也可以協助我們了解事件,並提供預防與降低風險的改善建議。
-
安全性監視和偵測
LLM 可以監視和偵測跨網路、系統、應用程式和資料的安全性事件和事件。其可分析資料、產生優先警示,並提供調查與回應的上下文資訊。LLM 也可以分析多雲端環境態勢、建立完整的資源地圖、預估潛在影響,以及提供風險降低建議。其可分析電子郵件內容,並識別網路釣魚嘗試的文字模式、異常和可疑語言,以用於網路釣魚偵測。
-
安全性測試和驗證
LLM 可以自動化及增強安全性測試和驗證,包括滲透測試、弱點掃描、程式碼分析和組態稽核。其會產生並執行測試案例、評估和報告結果,並提供補救建議。LLM 可以建立特定案例的自訂應用程式和工具、自動化重複的工作,以及處理需要手動介入的偶爾或臨時工作。
-
安全性認知和教育
LLM 可協助網路防禦者建立吸引人的個人化內容與案例,以提升安全性認知與教育。其可以評估目標受眾的安全性知識與技能等級、提供意見反應和指引,以及產生實際且可調整的網路練習和模擬,以用於訓練和測試。
-
安全性治理、風險與合規性
LLM 可協助自動化安全性治理、風險和合規性活動,包括原則開發和強制執行、風險評估/管理、稽核和保證,以及合規性和報告。其可以將活動與商業目標保持一致,並提供安全性計量和儀表板以用於績效測量。其也可以識別差距和問題,並提供建議以改善組織的安全性態勢、優先處理弱點,以及識別補救建議。
共同合作以塑造負責任 AI
負責任 AI 的設計
隨著 AI 技術努力改變社會,我們必須透過設計確保負責任 AI 的未來。負責任 AI 做法對於維護使用者信任、保護隱私權,以及為社會建立長期福利十分重要。
在 AI 中維護我們的道德標準
我們必須以身作則,投資在研究與開發上,以在新興安全性威脅出現之前保持領先。Microsoft 致力於確保其所有 AI 產品和服務的開發與使用遵守我們的 AI 準則。
10 年來的主動 AI 原則
Microsoft 致力於確保我們所有 AI 產品和服務的開發與使用遵守我們的 AI 準則。同時,我們正與業界合作夥伴合作開發標準和技術,讓數位內容的來源和真實性能夠是透明且可驗證的資訊,以增強線上的信任。
在全球,對於負責開發及使用 AI 之法規指導的需求正在增加,因此許多國家/地區正在草擬文件,提供管理與 AI 技術相關之新興風險的指導。這個趨勢已經發展了十年,而現在正要開始起飛。
關注 Microsoft 安全性