OpenTextのホームページ。
技術トピックス

ジェネレーティブAIセキュリティとは何か?

クエスチョンマークを中心としたIT項目の図解

概要

 ノートパソコンで作業をする人物

ジェネレーティブAIセキュリティ(AIコードリスクと呼ばれることもある)とは、ジェネレーティブ人工知能(GenAI)システムやAI支援コーディングツールによってもたらされる特有のリスクからアプリケーションや組織を保護することである。また、アプリケーション・セキュリティのテストと修復を強化するためにAIを責任を持って使用することも含まれる。

AppSecにおけるジェネレーティブAIの危険性と将来性

ジェネレーティブAIは、サイバーセキュリティ・ツールを強化することで、アプリケーション・セキュリティに革命をもたらそうとしている。

レポートを読む

ジェネレーティブAIセキュリティ

なぜGenAIのセキュリティが重要なのか?

ジェネレーティブAIはソフトウェア開発を急速に変化させ、開発者はコードをより速く、大規模に生成できるようになった。これはイノベーションを加速させる一方で、新たな課題ももたらす:

  • 安全でないコード生成:AIツールは脆弱性を含むコードを提案する可能性がある。
  • プロンプト・インジェクション攻撃:悪意のある入力により、AIモデルを操作して安全でない動作をさせることができる。
  • データ漏洩リスク:訓練セットやモデル出力を通じて機密情報が漏れる可能性がある。
  • AIへの過度の依存:開発者は、AIが生成したコードが安全かどうかを評価するためのコンテキストを欠いている可能性がある。

同時に、敵はAIを使って攻撃を自動化し始めており、脅威の状況はさらにダイナミックになっている。組織は、AIの利点を安全に活用しながら、こうしたリスクを軽減する戦略を採用しなければならない。


ジェネレーティブAIのセキュリティはどのように機能するのか?

ジェネレーティブAIとAIが生成したコードの安全性を確保するには、ガバナンス、テスト、モニタリングの組み合わせが必要だ。

主な慣行は以下の通り:

  • セキュアコーディングのチェックAIが生成したコードをSASTDAST、SCA、IaCテストにかける。
  • ポリシーの実施:AIコーディングアシスタントをいつ、どのように使用できるかのガードレールを設定する。
  • 脅威の検知:AI対応アプリケーションにおけるプロンプトインジェクション、データ漏洩、悪用リスクの特定。
  • 開発者支援:AIコーディングツールの安全な使用方法についてチームを教育する。
  • AIを活用したAppSec: GenAIを 責任を持って 使用 し、誤検知を減らし、修復を加速させる。

GenAIセキュリティの利点

  • リスクの低減:安全でないAIが生成したコードが本番環境に到達するのを防ぐ。
  • より安全な採用:チームが責任を持ってAIコーディングアシスタントを使用できるようにする。
  • AIアプリケーションのセキュリティモデルの操作、データの暴露、敵対的な入力などの独自のリスクに対処することで、AI搭載アプリを保護します。
  • 継続的な監視:AI関連の脆弱性を長期にわたって監視・管理する。
  • より迅速な修復:AIを活用して脆弱性のトリアージと修正を効率化。
  • バランスの取れたイノベーション:新たなリスクを最小限に抑えながら、AIのメリットを享受する。

OpenTextアプリケーションセキュリティによる生成AIセキュリティ

OpenTextは、企業がAI関連のリスクに対処しながら、セキュリティ向上のために責任を持ってAIを活用できるよう支援します:

  • OpenText™ Application Security Aviator™ (Fortify):誤検知を減らし、修復を加速するAI搭載のアシスタント。
  • SSRの研究:AI/MLフレームワークやAPIの脆弱性を検出するための継続的なアップデート。
  • 開発者優先のイネーブルメント:開発者がAIツールを安全に使用するためのガイダンスとトレーニング。
  • 統合テストプラットフォーム:AIが生成したコードの包括的なSAST、DAST、SCA、IaC、APIテスト。
  • ポリシー駆動型のオーケストレーション:アプリケーションセキュリティポスチャ管理(ASPM)により、AIの利用を管理する。

主な収穫

ジェネレーティブAIセキュリティは、企業がAIの生産性向上のメリットを享受する一方で、安全でないコード、データ漏えい、AIを搭載したシステムによってもたらされる新たな攻撃ベクトルのリスクを低減するのに役立ちます。