企業におけるAI活用が進む中、AIに関するセキュリティ戦略を構築することは必要不可欠になっている。本稿ではこれを実現するための3つのヒントをお届けする。
この記事は会員限定です。会員登録すると全てご覧いただけます。
以下は、Google CloudのCISO(最高情報セキュリティ責任者)オフィスでセキュリティアドバイザーを務めるアントン・チュヴァキン氏による寄稿記事である。
AIはセキュリティリーダーに魅力的なパラドックスを提示している。それは、膨大な利益を約束する強力なテクノロジーであると同時に、新旧のリスクが存在する地雷原でもあるということだ。AIの潜在能力を真に活用するためには効果的なリスク管理戦略によって、これらのリスクに積極的に対処する必要がある。
人間による監視や強固なセキュリティアーキテクチャ、技術的なコントロールを組み合わせたガードレールを導入し、慎重に練られたサイバー戦略を支えることで、組織はAIからより大きな利益を得られる。これらの戦略について詳しく確認してみよう。
組織は既存のリスクとガバナンスの枠組みを基礎として、AIに特化したガードレールを構築する必要がある。
セキュリティチームは、既存のセキュリティポリシーを確認および改良し、生成AIによってもたらされる新たな脅威のベクトルを特定して緩和し、リスク監視の範囲を絞り込み、AI機能の急速な進歩に対応するためにトレーニングプログラムを更新する必要がある。
基本的には現在のセキュリティ能力に対する批判的なレビューが、必要なAIポリシーの基盤を提供してくれる。
組織が構築および運用するAIシステムを監督し、効果的なフレームワークを確立するためには、人間の関与が不可欠だ。人間を介在させるアプローチはリスクを軽減し、3つの主要な分野で責任あるAIの使用を促進するのに役立つ。
安全なAIを導入するためには、AIのセキュリティとデータ保護をサポートするインフラストラクチャとアプリケーションレベルのコントロールが必要だ。これにはセキュリティアーキテクチャの優先順位付けと、インフラおよびアプリケーション、モデル、データのアプローチを用いた技術的な管理の導入が含まれる。
これらの対策を優先して実施することで、組織はAIシステムとデータのセキュリティを確保できる。
急速な変化が起こる中で、AIに対するサイバーセキュリティの脅威を軽減するには、洗練され、生きた戦略が不可欠である。Googleの「安全なAIフレームワーク」で説明されているように(注1)、強固で弾力性のある防御を構築することが重要だ。
AIシステムをカバーするために弾力性に富んだサイバー戦略を構築する際にはプロンプトへの攻撃やトレーニングデータの盗難、モデル操作、敵対的な例の作成、データの汚染、データの持ち出しなどのAIに関するリスクを理解する必要がある。
また、脅威の検出と対応に関する取り組みをはじめ、セキュリティのためにAIを活用することも検討すべきだ。
最後に、組織はAI特有の問題に対応し、AIに関連するセキュリティインシデントの検出、封じ込め、根絶のための明確なプロトコルを示す包括的なインシデント対応計画を通じて、サイバーレジリエンスを構築すべきだ。これにより、組織は進化するサイバー脅威からAIの導入を守るための適切な教育とツールを備えられる。
AIに関する複雑な状況を乗り越える上で、セキュリティリーダーは技術の急速な進歩とリスクの増大のバランスを取る役割を担っている。強力な防御策や人間による監視、技術的なセキュリティ管理、積極的な脅威防御戦略を組み合わせた多層的なアプローチを採用することで、組織は安全で革新的な未来に備えられる。
(注1)GoogleのセキュアAIフレームワーク(SAIF)(Google)
© Industry Dive. All rights reserved.