容疑者がフェイクポルノを公開していたとみられるインターネットサイト=京都府警提供、画像の一部を処理しています

容疑者がフェイクポルノを公開していたとみられるインターネットサイト=京都府警提供、画像の一部を処理しています

 人工知能(AI)を使った「ディープフェイク」と呼ばれる技術を悪用し、アダルトビデオ(AV)に女性芸能人の顔を合成した偽のポルノ動画をインターネットで公開したとして、京都府警が名誉毀損などの疑いで大分県の男(30)を逮捕した事件。AIが普及する中、ディープフェイク動画が世界的に問題となっている。専用ソフトを使えば高度な知識がなくても作成でき、本人と見分けがつかない精巧さから、海外では政治家の偽動画やリベンジポルノの被害も出ている。専門家は「ディープフェイクは明らかな人権侵害。ネット空間での監視の目を強める必要がある」と警鐘を鳴らす。

 ディープフェイクは2017年、海外の有名女優の偽ポルノ動画がネットに投稿されたことが発端とされる。18年には専用ソフトがネットで無償提供され始めた。より手軽に顔の改変が可能なスマートフォンアプリも登場し、世界中でまん延した。京都府警によると、国内では少なくとも約200人分の女性芸能人の偽ポルノ動画が約3500本、ネットで公開されているという。

 ディープフェイクに詳しい桜美林大の平和博教授(メディア論)によると、海外では政治家のイメージを損ねるために動画を加工したり、リベンジポルノとして一般人の偽わいせつ動画がネットに拡散されたりする被害も出ている。米国のバージニア州などでは法律で規制する動きがある。

 AI技術が高度化し、口元の動きや表情などが本人と見分けられないほど精巧になっている。フェイスブックなどの会員制交流サイト(SNS)では拡散された偽動画を見つけて削除しているが、いたちごっこが続いているといい、平教授は「偽動画を安易に拡散しないなど、ネット利用者にもリテラシーが求められる」と指摘する。