-large.webp?t=1774530036)
ИИ начал массово создавать сексуализированный контент с детьми
В 2025 году резко выросло количество сгенерированных ИИ материалов с сексуализированным насилием над детьми. По данным Internet Watch Foundation (IWF), за год обнаружили более 8 тысяч таких изображений и видео — это на 14% больше, чем годом ранее. Причём особенно быстро растёт именно видео: их стало в сотни раз больше, пишет The Guardian.
И дело не только в количестве. По данным организации, 65% таких видео относятся к самой тяжёлой категории — это наиболее жестокий и опасный контент по британскому законодательству. Для сравнения: среди «обычных» (не ИИ) материалов таких около 43%. То есть ИИ всё чаще используют именно для создания более экстремально откровенных и насильственных сцен.
Глава IWF Керри Смит прямо говорит: технологии развиваются быстрее, чем системы защиты.
«Ужасно осознавать, что возможности ИИ могут использоваться таким образом — это напрямую угрожает детям», — отмечает она.
Как это выглядит на практике
По данным аналитиков IWF, в закрытых сообществах злоумышленники активно обсуждают новые возможности ИИ — и воспринимают их как «прорыв». Их интересует всё, что делает контент более реалистичным: генерация видео с движением, добавление звука, а также попытки встроить в уже имеющиеся откровенные материалы изображения реальных детей.
Отдельное направление — использование так называемых автономных ИИ-систем, которые могут выполнять задачи без участия человека. Это означает, что создание такого контента может становиться быстрее и масштабнее.
Почему это вообще стало возможно? Главная причина — резкий скачок в качестве генеративных моделей. Современные ИИ уже умеют создавать изображения и видео, которые сложно отличить от реальности. При этом сами инструменты стали доступнее: то, что раньше требовало сложных технологий, теперь можно сделать с минимальными навыками.
Проблема в том, что системы безопасности не всегда успевают за этим ростом. Даже если у сервисов есть ограничения, пользователи находят способы их обходить.
Что с этим делают сейчас
В западных странах уже начали вводить новые меры. Компании и организации, занимающиеся защитой детей, получили право тестировать ИИ-модели — проверять, могут ли они создавать подобный контент, и требовать усиления защиты.
Кроме того, обсуждаются более жёсткие законы. Речь идёт, в том числе, о запрете на создание и распространение ИИ-моделей, которые могут использоваться для генерации такого контента.
При этом общественный запрос тоже очевиден: по данным опросов, около 80% взрослых в Великобритании считают, что технологии должны изначально разрабатываться с учётом безопасности и защиты детей.