Secure Steady
機密情報の入力リスク - AI への機密情報入力リスク の使い方・オプション・サンプル

機密情報の入力リスク - AI への機密情報入力リスク

生成 AI に業務データや個人情報を入力することで生じる情報漏洩リスクと、安全な利用方法。

概念図

AI への機密情報入力リスク diagram

入力した情報はどこに行くのか

ChatGPT などのクラウド型生成 AI に入力した文章は、あなたの画面で完結するわけではありません。

入力内容はインターネット経由で AI 提供元のサーバーに送られ、回答生成のために処理されます。

そこから先、データがどう扱われるかはサービスごとに違います。

行き先 何が起きるか 対応するリスク
サーバーでの一時処理 入力はメモリや一時ファイルに展開され、回答を生成するために使われる サーバー管理者・運用者が閲覧できる余地が残る
会話履歴として保存 ログインユーザーのアカウントに紐づいて履歴として保管される アカウント乗っ取りで過去のやりとりが丸ごと漏れる
モデル改善(学習)用途 匿名化のうえで将来のモデル学習に利用されることがある 学習済みモデルが別のユーザーに同じ情報を出力する可能性(稀だが過去に事例あり)
運用ログ・監査ログ 不正利用検知のために一定期間保存される 提供元が法執行機関などから開示請求を受けると提出対象になり得る

無料プラン・個人プランでは上記すべてがデフォルトで有効になっていることが多く、「入力した情報は基本的に自分だけのものではない」と考えるのが安全です。

実際に起きた情報漏洩事例

生成 AI 経由での機密情報漏洩は、すでに国内外で複数の事例が報告されています。

「自社は関係ない」とは言えないレベルで身近な問題です。

事例 何が起きたか
2023 Samsung の社内禁止令 半導体部門の従業員が、社外秘のソースコードや議事録を ChatGPT に貼り付けて確認させていたことが判明。会社は社内での生成 AI 利用を一時全面禁止した
2023 ChatGPT のバグによる履歴露出 Redis のライブラリ不具合で、一部ユーザーの会話タイトルや決済情報の一部が他人の画面に表示される障害が発生
2023〜 翻訳サイト経由の漏洩 無料のオンライン翻訳に契約書を貼り付けた結果、入力データが検索エンジンにインデックスされ第三者から閲覧可能になっていた事例が複数報告
2024 以降 就職活動での応募書類流出 履歴書や職務経歴書を生成 AI に添削させ、その内容が学習対象として残る懸念が指摘されている

共通しているのは「便利さを優先した結果、データの行き先を確認していなかった」というパターンです。

クラウド型と自前型の違い

生成 AI は大きく分けて「クラウド型」と「自前で動かす型」の 2 種類があります。

業務で扱う情報の機密度に応じて使い分けるのが現実的です。

種類 データの行き先 向いている用途
クラウド型(個人プラン) ChatGPT Free/Plus、Gemini、Claude 個人版 提供元サーバー。履歴・学習に使われる可能性あり 公開情報の要約、アイデア出し、一般知識の質問
クラウド型(企業プラン) ChatGPT Team/Enterprise、Claude for Work、Gemini for Google Workspace 提供元サーバー。ただし「学習に使わない」契約になっていることが多い 社内文書の要約、議事録整形、業務翻訳(NDA 範囲内)
API 経由の利用 OpenAI API、Anthropic API、Azure OpenAI 提供元サーバー。API 経由は既定で学習対象外のことが多い 自社サービスへの組み込み、社内ツール開発
自前型(ローカル LLM) Llama・Mistral・Gemma 等をオンプレや閉域 VPC で実行 自社管理下のサーバー内で完結 医療情報、個人情報、営業秘密など外部に出せない情報の処理

企業プランや API 経由の場合でも、利用規約の「データ利用ポリシー」「リテンション期間」の節は必ず確認することが重要です。

関連トピック