AI画像生成と児童ポルノ 現実と問題点

10月25日、イギリスに拠点を置く監視団体がインターネット上の児童ポルノについて調査分析を発表。1ヶ月の期間に約3,000点の児童ポルノがAI画像生成ソフトによって作成・公開されていることがわかりました。

調査を行った The Internet Watch Foundation (IWF) によると、2023年9月1日から31日の1ヶ月間、専用のブラウザを使わないとアクセスできないウェブサイト、いわゆる「ダークウェブ」上の小児性愛者コミュニティに投稿されたAI生成画像は11,108点。うち2,978点が児童を虐待する内容で、その9割近くは本物と区別がつかないほど精巧に描かれていました。7歳から10歳と見られる児童を描写したものが半数以上、1/5以上が強姦や性的拷問といった極めて残酷な内容だったとしています。

生成画像に使われていたのはオープンソースAI。通常のソフトウェアと違い、利用者がダウンロードしプログラムを書き換えることができます。ダークウェブ上のコミュニティでは「どうしたらよりリアルな画像を生成できるか」などの情報交換が行われていたとのことでした。

AI画像生成ソフトを使った児童ポルノには以下のような問題があります。

  • AIの学習素材として現実の性的虐待被害者の写真が使われていること
  • 著名人の顔写真をAIで「児童化」したポルノ画像が作られていること
  • オンライン上で公開されている児童の写真を流用、着衣画像を裸に加工するケースがあること
  • 精巧な生成画像が大量に作られることで実際の犯罪被害者の特定が難しくなること

イギリスの Protection of Children Act 1978(児童保護法)は児童の猥褻写真あるいは写真の類を撮影・配布・所持することを禁止。また、Coroners and Justice Act 2009 は図画、漫画、アニメによる表現も処罰の対象としています。 

AI生成画像による児童ポルノの規制については、近日施行される Online Safety Bill (オンライン安全法)に含まれるとイギリス政府は発表しています。

タイトルとURLをコピーしました