ディープフェイク被害の拡大にどう対処するか(イメージ)
どんな質問でも瞬時に答えてくれる生成AIは便利なツールだが、普及とともに問題視されているのがフェイク動画・画像の拡散だ。2023年には、岸田文雄・首相(当時)が卑猥な内容の発言をするディープフェイクがSNS上で出回った。また、昨年11月には、東北地方の街中にクマが出没したというフェイク画像が作られ、地元の自治体が誤認して注意を呼びかける事態も発生している。
ディープフェイクという言葉自体は2017年頃から広まったが、そのきっかけはポルノ映像の顔を著名人の顔に置き換えるフェイクポルノの拡散だ。その後の生成AIの進化でプロンプト(質問)の命令文から画像全体を作るAIモデルが開発され、誰でも利用できる形でネット上に出回っているという。画像、動画、音声などフェイクメディア対策の第一人者である越前功氏(東京大学大学院情報理工学系研究科教授)が言う。
「生成されたフェイクポルノがネットオークションなどで売られた件などが昨年頃から頻繁に報じられ、社会問題化しています。今や性的ディープフェイクのターゲットは著名人から一般人へと広がり、急激に拡大している現状があります」(以下、「」内のコメントは越前氏)
当然ながら名誉毀損などにあたるが、親告罪のため、被害者本人が訴えなければ事件化することはない。現実は、本人が知らないところで流されていることが多いという。
フェイクポルノをめぐっては、今年に入ってもXで大きな注目を集める騒動があった。アイドルグループのメンバーの写真に対し、人気漫画家が生成AIを使って「首にマフラーを巻いて、ビキニを着せて」と指示を出し作った画像がXに投稿され、本人サイドからの抗議のリプライや投稿者への批判の書き込みが殺到したのだ。投稿した漫画家は批判を受け画像を削除するとともに「肖像権、生成AI利用に関する意識の低さ」などを反省しているとする謝罪投稿を行なった。
卒業アルバムやSNSの写真を使い、中高生や児童の顔を元に、性的な画像や動画を生成するケースでの検挙事例も出てきている。ディープフェイクの拡散が止まない現実について、越前氏はこう言う。
「XやFacebookなどのソーシャルメディアでは、『面白い』『怖い』『衝撃的』などの感情が先に立って、情報が拡散していきます。特に大きな災害や戦争などが生じた非常時は、フェイクが一気に拡散しやすい。それっぽい画像を作って投稿するだけで、注目を集め、拡散され、報酬や承認を得られる仕組みができあがっています」
一見して本物と見分けられないディープフェイクに、私たちはどう対処できるのか。
