ディープフェイク(Deepfake)

ディープフェイクとは、ひとことで言えば、AI(ディープラーニング技術)を用いて人物の顔や声をリアルに偽造・合成する技術およびその生成物のことです。たとえば、CEOの顔と声をディープフェイクで再現したビデオ通話で経理担当者に緊急送金を指示し、2,500万ドルを騙し取った事件が実際に発生しています。テキストベースのフィッシングと異なり、映像や音声という「見れば信じてしまう」メディアを使うため被害者が疑いを持ちにくいのが特徴です。対策としては、重要な指示は複数チャネルで確認するプロセスの徹底と、ディープフェイク検知ツールの活用が必要です。