ИИ начал массово создавать сексуализированный контент с детьми
Источник: Canva

ИИ начал массово создавать сексуализированный контент с детьми

В 2025 году резко выросло количество сгенерированных ИИ материалов с сексуализированным насилием над детьми. По данным Internet Watch Foundation (IWF), за год обнаружили более 8 тысяч таких изображений и видео — это на 14% больше, чем годом ранее. Причём особенно быстро растёт именно видео: их стало в сотни раз больше, пишет The Guardian.

И дело не только в количестве. По данным организации, 65% таких видео относятся к самой тяжёлой категории — это наиболее жестокий и опасный контент по британскому законодательству. Для сравнения: среди «обычных» (не ИИ) материалов таких около 43%. То есть ИИ всё чаще используют именно для создания более экстремально откровенных и насильственных сцен.

Глава IWF Керри Смит прямо говорит: технологии развиваются быстрее, чем системы защиты.

«Ужасно осознавать, что возможности ИИ могут использоваться таким образом — это напрямую угрожает детям», — отмечает она.

Как это выглядит на практике

По данным аналитиков IWF, в закрытых сообществах злоумышленники активно обсуждают новые возможности ИИ — и воспринимают их как «прорыв». Их интересует всё, что делает контент более реалистичным: генерация видео с движением, добавление звука, а также попытки встроить в уже имеющиеся откровенные материалы изображения реальных детей.

Отдельное направление — использование так называемых автономных ИИ-систем, которые могут выполнять задачи без участия человека. Это означает, что создание такого контента может становиться быстрее и масштабнее.

Почему это вообще стало возможно? Главная причина — резкий скачок в качестве генеративных моделей. Современные ИИ уже умеют создавать изображения и видео, которые сложно отличить от реальности. При этом сами инструменты стали доступнее: то, что раньше требовало сложных технологий, теперь можно сделать с минимальными навыками.

Проблема в том, что системы безопасности не всегда успевают за этим ростом. Даже если у сервисов есть ограничения, пользователи находят способы их обходить.

Что с этим делают сейчас

В западных странах уже начали вводить новые меры. Компании и организации, занимающиеся защитой детей, получили право тестировать ИИ-модели — проверять, могут ли они создавать подобный контент, и требовать усиления защиты.

Кроме того, обсуждаются более жёсткие законы. Речь идёт, в том числе, о запрете на создание и распространение ИИ-моделей, которые могут использоваться для генерации такого контента.

При этом общественный запрос тоже очевиден: по данным опросов, около 80% взрослых в Великобритании считают, что технологии должны изначально разрабатываться с учётом безопасности и защиты детей.

Автор: Мария Соколова
Дата публикации: 26 марта 2026

Читайте в статье