子どもや若者の写真が、生成AIによって性的な画像に加工される被害が現実に起きています。
問題は、特別な写真ではありません。SNSに投稿した顔写真、学校行事の写真、部活動の集合写真、卒業アルバム、友人が投稿した何気ない画像まで、悪用の入口になり得ることです。
文部科学省は2026年3月、性的ディープフェイクによる児童生徒の被害・加害防止に関する事務連絡を出しました。そこでは、生成AIサイトや画像加工アプリを使い、実在する児童生徒の画像を性的画像に加工する事案が社会問題になっていると説明されています。警察庁が公表した令和7年中の警察取扱い事案は114件で、被害児童生徒は中高生が全体の約9割を占め、発生事案の約6割は同級生・同じ学校の者の中で行われていたとされています。
これは、見知らぬ誰かによるネット犯罪だけではありません。学校の教室、部活動、友人グループ、卒業アルバム、SNSのフォロー関係から起きる問題です。
写真1枚が、性的画像被害に変わる時代
性的ディープフェイクとは、実在する人の顔写真や映像を、生成AIや画像加工アプリで性的な画像や動画のように見せるものです。
本人がそのような写真を撮っていなくても、見る側が本人の画像だと思えば、被害は現実のものになります。画像が本物か偽物かだけではありません。本人の顔が使われ、学校名や制服、友人関係と結び付けられれば、周囲の視線は本人に向かいます。
文部科学省が示した学校把握事例では、SNSに投稿された画像を入手して性的な動画に加工し、メッセージアプリのグループに共有した事案があります。教室内で盗撮した画像を使った事案もあります。小学校の卒業アルバムの顔写真やSNS画像を使い、複数の対象生徒の画像を作成した例も示されています。
ここで重要なのは、被害の材料になる写真が、いわゆる危険な写真とは限らないことです。普通の顔写真、制服姿、行事写真、部活写真、卒業アルバムの写真でも、顔が分かればAI加工に使われる危険があります。
学校内で起きる「AIいじめ」
この問題の怖さは、加害者が外部の大人だけではない点にあります。
同級生が画像を保存する。友人グループで加工する。グループチャットに流す。面白がって別の生徒に見せる。こうした流れが起きれば、被害者は学校に通うこと自体が難しくなります。
「AIで作っただけ」
「本物ではない」
「友達に見せただけ」
「ふざけただけ」
この言い訳は通用しません。画像が本物でなくても、本人の顔を使って性的な画像として扱えば、相手の尊厳を傷つけます。学校生活、友人関係、家庭での会話、進学、将来の不安に直結します。
文部科学省の啓発資料でも、一度SNSやグループチャットに投稿した画像は拡散され、二度と消すことはできないと注意しています。また、生成AIを使った性的画像加工やSNSでの拡散は、トラブルや犯罪、人権侵害につながるケースがあると保護者向けにも説明しています。
学校がこれを「ネット上のこと」「生徒同士の悪ふざけ」と扱えば、被害はさらに広がります。画像を作った生徒だけでなく、保存した生徒、共有した生徒、笑って見ていた生徒にも、重い問題として伝える必要があります。
欧州と英国がこの問題に厳しい理由
欧州や英国がこの問題に厳しい理由は、単に法律が厳しいからではありません。
背景には、子どもの安全を社会全体で守るという考え方があります。英国ではDBS、つまりDisclosure and Barring Serviceの仕組みがあり、子どもや弱い立場の人に接する業務から不適格者を遠ざける考え方が根付いています。英国政府の説明では、DBSは子どもや弱い立場の人に関わる barred list を扱い、雇用主や団体が将来の危害リスクを把握した場合に照会・通報する仕組みを持っています。
ただし、今回のAI性的画像被害は、DBSだけで説明できるものではありません。
欧州では、子どものオンライン安全、個人データ保護、プラットフォーム事業者の責任、AI生成物の透明性がまとめて議論されています。EUのデジタルサービス法では、未成年が利用できるオンラインプラットフォームに対し、高い水準のプライバシー、安全、セキュリティを求めています。
欧州委員会は、2025年に120万人の子どもが性的ディープフェイク画像被害を報告したとし、11〜15歳の子どもの6人に1人がサイバーいじめの被害を受けたとも示しています。欧州でこの問題が強く扱われるのは、AI画像被害を単なるネットトラブルではなく、子どもの安全、個人情報、性的搾取、いじめ、プラットフォーム責任の問題として見ているからです。
また、EUではAI生成コンテンツやディープフェイクの表示・検出・ラベリングも議論されています。欧州委員会は、AI法の透明性義務に関連し、AIで作られた画像、音声、動画、テキストが人工的に生成・操作されたものだと分かる仕組みを求めています。
つまり欧州では、AI画像被害を「作った人だけの問題」として見ていません。作る人、共有する人、保存する人、配信する場所、通報を受ける事業者、削除に応じる仕組みまで含めて考えています。
「AIで作っただけ」は通用しない
当サイトの見方として、AIによる性的画像被害は、今後も簡単には止まらないと考えています。
AI会社は、性的画像や未成年者を悪用した画像を作れないように制限を強めるはずです。主要なサービスでは、入力制限、年齢確認、画像生成の拒否、通報、削除対応が進むでしょう。
しかし、それだけで被害が止まるとは考えにくいです。
新しい制限が入れば、それを回避するサービスを作る人間が出てきます。公式のAIでは作れなくても、別のアプリ、海外サイト、匿名性の高いサービス、閉じたグループチャットで悪用される危険は残ります。
これは、新しい映像技術や成人向けコンテンツが広がった時代にも見られたことです。技術が先に広がり、社会のルールが後から追いつく。制限が入れば、それを回避する方法が出る。被害が積み重なってから、ようやく法律と運用が強くなる。
生成AIによる性的画像被害も、すでにその段階に入っています。
だからこそ、AI会社の自主規制だけに頼るのは不十分です。作成した者、共有した者、保存した者、販売した者、脅しに使った者に対して、年齢や悪質性に応じた厳格な処分と法的対応が必要になります。
特に、悪質な作成、販売、脅迫、繰り返しの拡散まで「指導」で済ませれば、被害者は守られません。
中高生であっても、他人の顔を性的画像に加工し、友人に見せたり、グループに流したりすれば、相手の学校生活、家庭生活、進学、将来に影響が出ることは理解できる年齢です。もちろん、すべてを処罰だけで解決することはできません。教育、相談、削除対応、心のケアも必要です。
それでも、悪質な行為には明確な責任を問わなければ、「AIだから軽い」という空気が残ります。
英国警察は、18歳未満の人物について、実在かAIで作られたものかにかかわらず、性的な疑似画像や動画の作成、共有、所持は違法だと説明しています。ここに重要な考え方があります。問題は、本物か偽物かだけではありません。子どもの顔を使い、性的な画像として扱うこと自体が重大な被害を生むということです。
日本版DBSとAI画像被害をどうつなげるか
日本でも、こども性暴力防止法、いわゆる日本版DBSが2026年12月25日に施行されます。こども家庭庁は、この法律について、教育・保育など子どもに接する場で、子どもへの性暴力を防ぎ、心と身体を守るための制度だと説明しています。対象事業者には、日頃からのルール作り、環境整備、保護者・児童への周知、相談体制、研修、特定性犯罪前科の有無の確認などが求められます。
ここで注意すべきなのは、日本版DBSがAI画像被害そのものを直接取り締まる制度ではないという点です。
しかし、子どもに接する場で性被害を未然に防ぐという考え方は、今後、写真管理やSNS対応、生成AIによる画像加工被害にも広がっていく可能性があります。
学校、塾、スポーツクラブ、保育施設、習い事の場では、子どもの写真を誰が撮るのか、どこに保存するのか、誰が閲覧できるのか、退職者の端末に残っていないか、共有サービスの管理者は誰かを確認する必要があります。
AI時代には、写真管理そのものが子どもの安全対策になります。
被害に気づいたとき、最初にやるべきこと
被害に気づいたとき、最初に必要なのは、相手を直接問い詰めることではありません。証拠を残し、拡散を止め、学校・警察・相談窓口につなぐことです。
まず、投稿画面、アカウント名、投稿日時、URL、グループ名、送信相手が分かる画面を保存します。日時と投稿者が分かる形で残すことが重要です。
次に、画像を不用意に転送しないことです。確認のためであっても、友人や保護者同士で広く共有すれば、再拡散につながります。学校に伝える場合も、画像そのものを無制限に送るのではなく、誰に、どの目的で、どの範囲まで共有するのかを確認する必要があります。
文部科学省は、このような事案が発生した場合、速やかに警察と連携して対応し、被害を受けた児童生徒への心のケア、加害児童生徒への指導を行うよう求めています。
保護者が最初に言うべき言葉は、「なぜそんな写真を載せたの」ではありません。
「一緒に確認する」
「勝手に広げない」
「学校と警察に相談する」
この順番が大切です。
保護者と学校が今日から確認すべきこと
保護者が確認すべきことは、子どものスマートフォンを一方的に取り上げることではありません。
確認すべきなのは、顔写真の公開範囲、制服や学校名の写り込み、位置情報、知らない相手とのDM、画像を求められた経験、友人が投稿した写真への写り込みです。
本人が自分のアカウントで顔写真を出していなくても、友人の投稿や集合写真に写っている場合があります。そこから顔画像が保存され、AI加工に使われる危険があります。
学校側は、AI性的画像被害を家庭だけの問題として扱うべきではありません。学校行事、卒業アルバム、教室内の撮影、部活動写真、友人グループが関係する場合、学校は対応から外れることはできません。
必要なのは、被害児童生徒の保護、画像の拡散範囲の確認、関係生徒への聞き取り、保護者への説明、警察や教育委員会との連携です。
また、生成AIを禁止するだけでは足りません。
他人の顔写真を性的画像に加工することは、相手の人生に長く影響する行為だと教える必要があります。
技術、教育、処罰を同時に進める段階に入った
AI画像被害は、技術の問題であると同時に、子どもの尊厳をどう守るかという問題です。
AI会社の制限だけでは足りません。学校の情報モラル教育だけでも足りません。家庭でSNSの使い方を話すだけでも足りません。
必要なのは、技術対策、削除体制、学校対応、保護者の確認、相談窓口、悪質な行為への厳格な処分を同時に進めることです。
写真1枚が、性的画像被害に変わる時代です。
子どもを守るためには、「撮らない」「載せない」だけでは足りません。
誰かの写真を勝手に保存しない。
加工しない。
共有しない。
見つけても広げない。
被害に気づいたら、証拠を残して相談する。
この基本を、家庭、学校、事業者、社会全体で確認する必要があります。
「AIで作っただけ」は、もう通用しません。
AIで作られた性的画像は犯罪になりますか?
内容によっては犯罪になる可能性があります。英国警察は、18歳未満の人物について、実在かAIで作られたものかにかかわらず、性的な疑似画像や動画の作成、共有、所持は違法だと説明しています。
普通の顔写真でもAI画像被害に使われますか?
使われる可能性があります。文部科学省が示した事例には、SNS画像、教室内で撮影された画像、小学校の卒業アルバムの顔写真を使った性的ディープフェイク事案が含まれています。
欧州や英国はなぜこの問題に厳しいのですか?
子どものオンライン安全、個人データ保護、プラットフォーム責任、AI生成物の透明性をまとめて重視しているためです。欧州委員会は、子どものオンライン被害としてサイバーいじめ、成人向けコンテンツ、AIツール、依存性の高いアルゴリズムなどを課題に挙げています。
日本版DBSはAI画像被害を直接取り締まる制度ですか?
直接取り締まる制度ではありません。日本版DBSは、教育・保育など子どもに接する場で、こどもへの性暴力を防ぐための制度です。ただし、子どもの安全対策という意味では、今後、写真管理、SNS管理、AI画像被害への対応も重要な確認項目になる可能性があります。
被害画像を見つけたら、最初に何をすべきですか?
投稿画面、投稿日時、アカウント名、共有先が分かる情報を保存してください。ただし、画像を友人や保護者同士で広く転送することは避けるべきです。確認のつもりでも再拡散につながる危険があります。
学校で起きた場合、学校は対応すべきですか?
対応すべきです。学校行事、卒業アルバム、教室内の撮影、友人グループ、生徒同士の共有が関係する場合、学校は被害児童生徒の保護、事実確認、拡散範囲の確認、保護者対応、警察との連携を行う必要があります。文部科学省も、事案発生時には警察との連携、被害児童生徒への心のケア、加害児童生徒への指導を求めています。
参考・出典
- 文部科学省「性的ディープフェイクによる児童生徒の被害・加害防止のための広報啓発資料の活用等について」
- 警察庁「児童の性的ディープフェイク被害・加害防止のための広報啓発資料」
- こども家庭庁「こども性暴力防止法」
- UK Police「Deepfakes」
- UK Government「DBS barring referral guidance」
- European Commission「Protect our children. Also online」
- European Commission「Digital Services Act」
- European Commission「Code of Practice on marking and labelling of AI-generated content」

