AI セキュリティ
8 コマンド
プロンプトインジェクション プロンプトインジェクション
LLM に対して悪意ある指示を注入し、システムプロンプトの無視や意図しない動作を引き起こす攻撃。直接型と間接型がある。
データポイズニング データポイズニング
学習データに悪意あるデータを混入させ、モデルの出力を操作する攻撃。バックドアの埋め込みやバイアスの誘発が可能。
モデル窃取 モデル窃取
API への大量クエリやサイドチャネル攻撃により、機械学習モデルの重みやアーキテクチャを復元・盗用する攻撃。
サプライチェーンリスク AI サプライチェーンリスク
事前学習モデル・データセット・ライブラリなど AI サプライチェーンの各段階に潜むセキュリティリスク。
ハルシネーション悪用 ハルシネーション悪用
LLM のハルシネーション(幻覚)を利用し、存在しないパッケージ名やURLを生成させてマルウェア配布に悪用する攻撃。
著作権侵害 AI と著作権侵害
AI が学習データの著作物を記憶・再現することによる著作権侵害リスク。学習データの出典管理やフィルタリングが重要。
MCP セキュリティ MCP のセキュリティリスク
Model Context Protocol(MCP)サーバー経由で LLM に外部ツールやデータを提供する仕組みにおけるセキュリティリスク。悪意あるツールの実行や過剰な権限付与による情報漏洩が問題となる。
RAG セキュリティ RAG パイプラインのセキュリティ
RAG(Retrieval-Augmented Generation)パイプラインにおけるセキュリティリスク。ベクトル DB への不正アクセス、ドキュメント経由のプロンプトインジェクション、権限を超えた情報漏洩など、検索拡張生成に固有の脅威と対策を解説する。
