Secure Steady
ディープフェイク - ディープフェイクと AI 生成コンテンツ の使い方・オプション・サンプル

ディープフェイク - ディープフェイクと AI 生成コンテンツ

AI で生成された偽の音声・画像・動画を悪用した詐欺やなりすましのリスクと見分け方。

概念図

ディープフェイクと AI 生成コンテンツ diagram

ディープフェイクとは何か

ディープフェイクとは、AI を使って本物と見分けがつかないレベルで作られた偽の音声・画像・動画のことです。

「Deep Learning(深層学習)」と「Fake(偽物)」を組み合わせた造語で、数年前までは専門知識と高価な機材が必要でしたが、近年は一般向けアプリでも数分で作れるようになりました。

種類 どんなものか 身近な悪用例
音声(ボイスクローン) 数秒〜数十秒の音声サンプルから本人そっくりの声を合成する 家族の声を装った「オレオレ詐欺」、CEO の声を使った送金指示
顔画像(フェイススワップ) 写真の顔を別人の顔に差し替える SNS での偽アカウント、本人になりすました卑猥画像の拡散
動画(リップシンク + フェイススワップ) 人物動画の口元と表情をセリフに合わせて動かす 有名人の偽インタビュー、政治家の偽声明
文章(AI 生成テキスト) 本人の文体を模倣して偽メール・偽 SNS 投稿を作る ビジネスメール詐欺(BEC)、偽のプレスリリース

「声や映像は信じられる」という私たちの直感は、ディープフェイクによって通用しなくなりつつあります。

実際に起きた詐欺事件

ディープフェイクを使った大型の金銭被害がすでに世界中で発生しています。

「自分には関係ない」と思わず、手口を知っておくことが防御の第一歩です。

事件 被害額・内容
2019 英国エネルギー企業での CEO 音声詐欺 ドイツ親会社 CEO の音声をクローンし、英国子会社の幹部に電話。約 22 万ユーロ(約 2,600 万円)を送金させた
2021 UAE の銀行口座なりすまし 取引先会社役員の声を模倣した電話と偽メールで、銀行員を騙し 3,500 万ドルを送金させた
2024 香港・多国籍企業 35 億円事件 財務担当者が「CFO と同僚数名」が参加する Web 会議に出席したところ、全員がディープフェイクの合成映像だった。指示どおり約 2 億香港ドル(約 35 億円)を送金
2024 有名人なりすまし投資詐欺 著名経営者や俳優の動画を加工した偽投資広告が SNS で拡散し、各国で被害が発生

これらの事件に共通するのは、「電話や Web 会議で本人確認が済んだ気になって、従来の承認プロセスをスキップしてしまった」という点です。

見分け方と本人確認の工夫

完璧な見分け方は存在しませんが、「怪しいサインに気づく」「仕組みで確認する」の 2 方向から身を守れます。

観点 チェックポイント 補足
映像の違和感 瞬きの不自然さ、髪や耳の輪郭のにじみ、光源と影の不整合、背景との境目のブレ 2024 年以降の高品質モデルではこれらが目立たないケースも増えているので参考程度
音声の違和感 不自然な息継ぎの無さ、感情の抑揚が一定、背景雑音が全く無い、口調が微妙に違う 短いセリフほど見破りにくい
文脈の違和感 緊急性の過剰な強調、通常の承認ルートの迂回要求、個人の携帯やチャットへの突然の連絡 ソーシャルエンジニアリング一般のサインと共通
仕組みで確認 別チャンネルでのコールバック、合言葉(家族内の質問)、承認ワークフローの徹底 最も確実。映像や音声だけで判断しない

特に送金・パスワードリセット・契約承認といった不可逆な操作は、「声や顔を見た」ことを本人確認の根拠にせず、必ず別の連絡手段でのコールバック合言葉で二重に確認する運用にすることが重要です。

関連トピック