Wallarm(ワラーム)、エージェント型AIとAPI主導の世界におけるセキュリティーの課題と解決策を報告
エージェント型AIの登場は企業を取り巻く環境を刷新し、目新しい段階を脱し、現代ビジネスに不可欠な要素となっている。しかしながら、この変革は新たなセキュリティー脅威をもたらし、APIセキュリティーのあり方を一変させた。Wallarm(ワラーム)の製品担当副社長であるTim Erlin氏、ニューヨーク大学非常勤教授でマーベルおよびメジャーリーグサッカーの元CISOであるMike Wilkes氏、そしてAPIセキュリティーのスタートアップ企業Envisionの創業者でありIntuitのエンジニアリンググループマネージャーであるYossi Barshishat氏による最近のディスカッションでは、AIエージェントがセキュリティーに与える影響について考察された。
エージェント型AIは、従来の生成型AIツールとは異なり、顧客データの理解、意思決定、タスク実行といった独立したアクションを実行できる。ハブアンドスポーク型システムから、AIエージェントが相互に通信し、API、ツール、データソースと連携するネットワークへの移行は、新たなレベルの複雑さと新たな攻撃対象領域をもたらす。Wallarm 2025 ThreatStatsレポートはこれを裏付けており、Wallarmの既知の悪用された脆弱性リストの50%以上がAPI関連であり、前年のわずか20%から大幅に増加していることを明らかにしている。
エージェント型AIの血液のようなAPIは、重大な攻撃ベクトルとなっている。しかし同時に、不正な動作を監視、分析、そして傍受する機会も提供する。セキュリティーには階層的なアプローチが必要であり、AIモデルを保護するだけでなく、モデルがリアルタイムデータやシステムとやり取りするAPIレベルにも安全策を組み込む必要がある。
ジェイルブレークやプロンプトインジェクションといった古くからの脅威は、エージェントAIの登場により、より深刻な被害をもたらしている。エージェントAIのジェイルブレークが成功すると、機密性の高い契約の取得、個人データの漏洩、内部APIを介したバックエンドシステムの操作といった不正なアクションが引き起こされる可能性がある。LLM時代のSQLインジェクションに相当するプロンプトインジェクションは、AIモデルにとって深刻な脅威となる。プロンプトインジェクションには、直接プロンプトインジェクションと間接プロンプトインジェクションの2種類があり、どちらもLLMの元の指示や安全ガイドラインを無効にすることを目的としている。
本来の意図を超えた行動を実行する自律型ボット、つまり不正AIエージェントのリスクについても議論された。これらのAIエージェントはチームの効率性を向上させることができるが、きめ細かな認証制御のないバックエンドシステムに接続すると、機密データにアクセスしたり、ユーザーやエージェント自体が実行すべきではない特権アクションを実行したりする可能性がある。これらのシステムに自律性を与えるほど、明確で強制力のある境界を実装することがより重要になる。これは、AIレベルだけでなく、エージェントが接続する全てのシステムに制御を適用することを意味する。APIは、これらの制御を適用する最も実用的かつ効果的な場所の一つだ。なぜなら、そこがエージェント型AIと現実世界が出会う場所だからだ。
エージェント型AIは、現代の組織にとって機会と脅威の両方をもたらす。エージェント型AIの導入事例の90%が脆弱であることから、それらをどう保護すべきかを理解することは非常に重要になるだろう。
出典:Wallarm