AI セキュリティ

8 コマンド

プロンプトインジェクション プロンプトインジェクション

LLM に対して悪意ある指示を注入し、システムプロンプトの無視や意図しない動作を引き起こす攻撃。直接型と間接型がある。

データポイズニング データポイズニング

学習データに悪意あるデータを混入させ、モデルの出力を操作する攻撃。バックドアの埋め込みやバイアスの誘発が可能。

モデル窃取 モデル窃取

API への大量クエリやサイドチャネル攻撃により、機械学習モデルの重みやアーキテクチャを復元・盗用する攻撃。

サプライチェーンリスク AI サプライチェーンリスク

事前学習モデル・データセット・ライブラリなど AI サプライチェーンの各段階に潜むセキュリティリスク。

ハルシネーション悪用 ハルシネーション悪用

LLM のハルシネーション(幻覚)を利用し、存在しないパッケージ名やURLを生成させてマルウェア配布に悪用する攻撃。

著作権侵害 AI と著作権侵害

AI が学習データの著作物を記憶・再現することによる著作権侵害リスク。学習データの出典管理やフィルタリングが重要。

MCP セキュリティ MCP のセキュリティリスク

Model Context Protocol(MCP)サーバー経由で LLM に外部ツールやデータを提供する仕組みにおけるセキュリティリスク。悪意あるツールの実行や過剰な権限付与による情報漏洩が問題となる。

RAG セキュリティ RAG パイプラインのセキュリティ

RAG(Retrieval-Augmented Generation)パイプラインにおけるセキュリティリスク。ベクトル DB への不正アクセス、ドキュメント経由のプロンプトインジェクション、権限を超えた情報漏洩など、検索拡張生成に固有の脅威と対策を解説する。