Insight
2025年8月5日
ソーシャルエンジニアリングとは、技術的な脆弱性ではなく人間の心理や組織の手続きの隙を突き、不正な情報取得や金銭詐取を行う手法です。従来は肩越しに入力を盗み見る「ショルダーハッキング」や来訪者を装う尾行型といった、いわば原始的な方法が主でしたが、現在は、フィッシングメール・偽電話・偽チャットが主流になっています。さらに生成 AI の登場により、メール文面・音声・動画をリアルタイムで合成することが容易になり、人間が「違和感」を手がかりに見抜く余地がほとんどなくなりました。コストの観点でも、従来コストが高かった「人間らしい文章生成」「リアルタイム音声合成」を一瞬で低コストで提供する時代に入りました。その結果として、生成Aによるソーシャルエンジニアリング攻撃の被害が増大しています
生成AIによるソーシャルエンジニアリング攻撃の最新事情
ソーシャルエンジニアリングとは、技術的な脆弱性ではなく人間の心理や組織の手続きの隙を突き、不正な情報取得や金銭詐取を行う手法です。従来は肩越しに入力を盗み見る「ショルダーハッキング」や来訪者を装う尾行型といった、いわば原始的な方法が主でしたが、現在は、フィッシングメール・偽電話・偽チャットが主流になっています。さらに生成 AI の登場により、メール文面・音声・動画をリアルタイムで合成することが容易になり、人間が「違和感」を手がかりに見抜く余地がほとんどなくなりました。
コストの観点でも、従来コストが高かった「人間らしい文章生成」「リアルタイム音声合成」を一瞬で低コストで提供する時代に入りました。その結果として、生成Aによるソーシャルエンジニアリング攻撃の被害が増大しています。
最新統計とインシデント
まずは冒頭で述べた内容を裏付ける最新の統計とインシデントについて3つほどご紹介します。
Arup 社 Deepfake 事件(2025 年 2 月)
香港拠点の財務担当者が《CFO・財務本部長・監査役》を名乗る 5 名と Zoom 会議を行い、24 時間で 15 件の国際送金(1 件あたり平均 170 万 USD)を承認しました。CFO は欧州出張中で時差を理由に追加確認を拒まず、会議映像・音声・背景ノイズまでリアルタイム生成されたディープフェイクに欺かれました。送金先は香港・シンガポール・UAE の 9 口座で、捜査当局が凍結できたのは 8 口座 (約 1.3 M USD) のみでした。
BECによる被害額は37.3億USDに
FBI IC3 は 2024 年、BEC に関する苦情 22 189 件・損失総額 37.3 億 USD を記録したと発表しました。IC3 内 Recovery Asset Team (RAT) は 3 008 件の凍結要請を処理し、66 %(538 M USD)の資金を回収しています。
生成AIフィッシングの増加
IBM Security Threat Intelligence Index 2025 は AI 生成フィッシング検体を 約 200 万件 と推計し、前年(108 万件)比で 84 % 増 と分析しました。特に「金融」「ヘルスケア」の 2 業種で 62 % を占め、誤字脱字率は従来の 6.9 % から 0.8 % に低下しています。
生成 AIが生んだ 6 つの新たな脅威
上記の事例からわかるように、生成AIの進化により、従来のソーシャルエンジニアリング詐欺が高度化し、その種類も多様化しています。続いて、生成AIによって生み出された新たな詐欺手法について解説します。
脅威①:AI 生成フィッシング
一般的な方法として、攻撃者はまず LinkedIn API とダークウェブの「購買リスト」から役職・案件・購買コードを収集します。次に LLM にプロンプトを与え、敬体メールを生成し、社内テンプレートと 99 % 合致する署名ブロックを自動挿入します。最終的に SaaS 請求ドメインを偽装して送付します。実際に北米 Sierp 法務部では 9 万 USD を誤送金する事例も発生しています(2025 年 5 月)。機械学習ベースの誤字検知や SPF/DKIM 検査はすべて通過するため、従来のルール型フィルタでは検知が困難な点も特徴です。
脅威②:ディープフェイク音声・動画
YouTube やウェビナーからたった 3 分程度の音声を抽出し、それを元に音色モデルを構築します。その声を Zoom の「バーチャルカメラ」機能と組み合わせ、本人そっくりの顔・背景・照明まで合成することで、会議内でリアルな送金指示などを可能にしています。Arup 事件では 15 本・平均 170 万 USD の国際送金が実行されました。声や映像だけでなくエアコンの風音やキーボード音まで再合成されるため、人間の五感では違和感を覚えにくいのが特徴です。
脅威③:ヘルプデスク偽装 & MFA 奪取
生成 AI が作成した電話スクリプトで「スマホを紛失したので緊急で MFA をリセットしてほしい」とサポート担当者を急かします。実際に 2025 年 4 月、米 SaaS ベンダーで 140 アカウントが乗っ取られました。Okta→Salesforce→経費精算と権限連鎖が加速し、多層的な被害に発展します。
脅威④:AI スクレイピング・スピアフィッシング
攻撃者は LinkedIn、GitHub、IR 資料から自動スクレイピングを行い、昇進直後の管理職や新規プロジェクト責任者を抽出します。趣味(車・ゴルフなど)もメール本文に自然に織り交ぜることで心理的距離を近づけ、2025 年 6 月には日系メーカーの新任 PM が開発仕様書を外部ストレージに誤共有しました。公開情報のみで精密プロファイルを作るため、SOC ではアラートが発生しないため、検知が難しかったことも被害の一因です。
脅威⑤:多言語スミッシング
LLM は英語と日本語を自然にコードスイッチできるため、国際 SMS を経由しても翻訳エラーが検出されません。2025 年 7 月には在日外資 3 社で BYOD 端末 180 台がマルウェアに感染しました。国番号フィルタを迂回し、文面に海外出張の日程やフライト番号を含めることで信頼感を高めています。
脅威⑥:AI ドロッパー文書
LLM が PDF/Office ファイル内の JavaScript を AES で暗号化し、添付ファイルとして拡散。開封すると DLL(Dynamic Link Library:Windows で機能を追加する動的リンクライブラリ)を落として C2 サーバー(Command & Control:攻撃者が遠隔操作やデータ回収に使う管理サーバー)へ接続するため、EDR が反応する頃には機密情報が既に抜かれています。2025 年 5 月に欧州の製薬企業で研究データが流出した事件では、サンドボックス解析に 20 分以上かかり、リアルタイム検知が間に合いませんでした。
事実から読み取れる3つの本質
前述した事実もとに、生成AIが進化したこの時代のセキュリティについて、我々は何を学べばいいのでしょうか。Yaguraでは、下記の3つのギャップが今後のソーシャルエンジニアリング攻撃への対応の重要な論点になると考えます。
①速度ギャップ
人間と生成AIの間に、速度のギャップが生まれています。生成AIは秒単位でまるで本人が書いたかのようなリアルな詐欺メールを生み出しますが、人間はそのメールが詐欺メールか判定するのに数十秒、数分を要します。場合によっては時間をかけてもそれが詐欺メールだと判定できないことも多くなっています。
そのような時代では、防御側も生成AIを活用した防御をしなければ、高度化、高速化する生成AI攻撃に耐えることはできません。生成AIの発達によって防御側もすべてのメールを確認し、不審なメールを検知することも低コストで実行できるようになったいま、速度ギャップに対応するためにも防御側側での生成AI活用が重要になっています。
②コストギャップ
攻撃する側のコストが大幅に下がった今、攻撃する側は月数十ドルの投資で数百万~数千万ドルのリターンを得ることが可能になっています。このコストギャップが、攻撃する側の利益の源泉になっており、今後も生成AI防御に取り組んでいない企業への攻撃は加速していくことが容易に予想されます。
特に日本は、いままで日本語の難易度を主な原因として攻撃が難しく、ターゲットにされてこなかった背景がありますが、同時に防御側のリテラシーも発達してきていない状態です。加速する生成AI攻撃への防御ができていない企業は、生成AIによるソーシャルエンジニアリング攻撃で甚大な被害を生むリスクは非常に大きいと考えられます。
③認知ギャップ
生成AI攻撃のリアリティに対する、認知のギャップが生まれています。生成AIによって生成されるメール文面やディープフェイク映像、音声はもはや本人の家族でも認識できないレベルまで高度化しています。特に日本ではこのような高度なディープフェイク映像は言語の難易度を理由に作られにくかったものの、直近の生成AIの発達はその壁を乗り越えています。
そんな中で、「この映像が本人でないはずがない」という生成AIの品質への認知ギャップが生まれており、被害を拡大させる一因となっています。
防衛ロードマップ
それでは、3つのギャップを埋め、ソーシャルエンジニアリング攻撃による被害を食い止めるために、我々はどのような対策をすればよいのでしょうか。
STEP1:ヒトによる防衛
人を訓練することによって、ソーシャルエンジニアリング攻撃を食い止める対策です。実際のシミュレーションなどを通じて従業員の耐性をつけていくことで一定の被害をすることができますが、人間である以上そのリスクを0にすることは難しいため、STEP2で解説するテクノロジーによる防衛と組み合わせることも必要になります。人による防衛には、具体的には下記のような対策があります。
AI シミュレーション訓練
AIで生成された実際の攻撃をシミュレーションします。個人の攻撃メールに対するクリック率を測定しつつ、その数値を下げることを目標に、部門別シナリオ(経理・人事・開発など)をローテーションします。訓練完了率をダッシュボードで全社公開し、可視化による行動変容を促進します。
ディープフェイク対応ブリーフィング
ミーティング形式で、実際に生成した偽 CFO 映像 2 本を上映し、受講後クイズで 理解度を可視化します。
BEC ロールプレイ
リアルタイム声紋変換ツールで偽 CEO が突然電話し、送金を要求するシナリオを実施します。
STEP2:テクノロジーによる防衛
人を訓練するだけでは、完全にソーシャルエンジニアリング攻撃を防ぐことはできません。そこでシステムとして下記のような対策を施すことで、根本的な解決を図る防衛策があります。
人の注意力に頼らずにリスクを抑え込むため、検知・無害化・封じ込め・証跡保全を一気通貫で実施できる仕組みをシステム側に組み込んで対応できる点が特徴です。
送信前 AIチェック
メールを送る前に AI が本文と添付を読み、ふだんと大きく違う内容なら自動で止めて担当者に知らせます。誤送信や内部不正を「送る前」に防ぎます。
ファイル安全化
受け取った PDF や Office 文書をいったん分解し、マクロや悪質なコードを取り除いて安全な形に作り直します。処理は一瞬なので使い勝手はそのままです。
顔と声の本人確認
オンライン会議や重要なログインの前に 1-2 秒だけ顔と声を撮って本人かどうか確認。AI が偽動画や偽音声(ディープフェイク)を見抜きます。会議は自動録画され、改ざんできないように保護されます。
行動モニターと自動隔離
ユーザーや端末の動きをいつも記録し、怪しい行動が一定以上になると、その端末をネットからすぐ切り離します。同時に担当チームへ数十秒で通知します。
脆弱性のデイリーチェック
インターネットに公開している自社サーバーやポートを毎晩自動で調べることで、不要なサービスや脆弱性のあるページを見つけたら閉じて、攻撃される入口を減らします。
ログ/メモリの自動保存
重大なインシデントを検知した瞬間に、関連ログやメモリ情報をコピーし、改ざん防止の印を付けて安全な場所へ保管。原因調査や法的対応に役立ちます。
まとめ
生成 AI の進化は、従来「人海戦術」に頼っていた社会工学攻撃を、高速・低コスト・高精度で実行できるビジネスへ変貌させました。本稿で示した 6つの脅威はすべて、技術的に防ぐ手段が存在する一方で、「ヒトの思い込み」「組織の手続き遅延」「投資判断の先送り」という非技術的要因が被害の拡大を許しています。
攻撃コストを得られるリターンが大きく上回る現在、ソーシャルエンジニアリングへの防御は必須とも言える状態になっています。
大きな被害を出さないためにも、生成AIによるソーシャルエンジニアリング攻撃への対策を今日から進めていきましょう。
参考文献(抜粋)
World Economic Forum “Deepfake Heist Hits Engineering Giant” (2025‑02‑18)
FBI IC3 Report 2024, p.10
IBM Security “Threat Intelligence Index 2025”
Pindrop “Pulse: Real‑Time Deepfake Detection” (2025‑06‑12)
その他、Tripwire・InceptionCyber・Unit 42・F‑Secure 各種レポート