自治体も誤認したクマ出没のフェイク画像(SNSより)
生成AIが画像や動画まで自在に作り出すようになったことで、私たちの日常における「現実認識」そのものが揺らぎ始めている。XやYouTubeなどのSNSでは、ディープフェイクと呼ばれるニセの画像や動画が、すでに日常的に流通している。
そのひとつが、詐欺などに使われる、著名人が投資を呼びかけるニセの動画だ。画像、動画、音声などフェイクメディア対策の第一人者である越前功氏(東京大学大学院情報理工学系研究科教授)が言う。
「インスタグラムのリール(短い動画)などで多く見られますが、次のような手法が使われます。まず、言わせたい内容のテキストを著名人の声と音声合成する『テキストtoスピーチ』モデルを施し、合成した音声に対して口元だけを加工する『リップシンク』処理を行なう。すると、合成音声に合わせて映像の口元が同期して動くというのが、ディープフェイクの手法です」(以下、「」のコメントは越前氏)
2023年には、岸田文雄・首相(当時)が卑猥な内容の発言をするディープフェイクがSNS上で出回った。
「このケースもリップシンク動画ですが、質は非常に低く、静止画の口元だけが動くもの。実際はもっと高度な動画の作成が可能で、映像に対して口元を自然に音声に同期させることができます」
そうしたフェイク動画・画像の質は、本物と区別するのが難しいレベルまで達している。
「昨年11月には、東北地方の街中にクマが出没したというフェイク画像が作られ、地元の自治体が誤認して注意を呼びかける事態が発生しました。クオリティが高く一般の方には判別できないレベルの画像でしたが、一次情報を得やすい立場にあるはずの自治体が、住民からの情報提供に頼り、誤った情報を出したことは個人的にもショックでした。ディープフェイクを本物と区別するのは難しいレベルに達したと改めて認識させられました」
* * *
関連記事【《著名人だけでなく一般人もターゲット》止まらないディープフェイク被害 真贋を識別するための技術開発が進んでも多様なフェイクモデルが登場で“いたちごっこ”の現状】では、拡散が止まらないディープフェイクの現状と、進化するその対策について紹介する。
【プロフィール】
越前功(えちぜん・いさお)/1971年、東京都生まれ。国立情報学研究所教授。東京工業大学卒業。博士(工学)。コンテンツセキュリティやフェイクメディア検出、生成AIと社会の課題を専門とし、政府の有識者会議などでも発言。
※週刊ポスト2026年1月30日号
