ИИ и насилие: когда технологии становятся угрозой детям

В Казахстане наблюдается рост контента с насилием над детьми, в том числе с использованием искусственного интеллекта. Дети начинают пользоваться интернетом в раннем возрасте, что увеличивает риски кибербуллинга и сексуализированного контента. Исследования показывают, что каждый пятый ребенок сталкивается с нежелательным сексуальным контактом онлайн. Важно развивать цифровую грамотность и безопасность детей в интернете, а также усиливать законодательство по борьбе с цифровым насилием.
ИИ и насилие: когда технологии становятся угрозой детям Астане

Согласно исследованиям, количество противоправного контента с детьми в интернете растет с каждым годом, и искусственный интеллект (ИИ) играет в этом значительную роль. В данной статье рассматривается, как злоумышленники используют современные технологии для создания контента, связанного с насилием над детьми.

Четыре года? Добро пожаловать в интернет

Казахстан занимает одно из ведущих мест по уровню интернет-проникновения в Центральной Азии, где около 90 процентов взрослого населения имеет доступ к сети. Несмотря на успехи цифровизации, существует и обратная сторона медали.

Дети в Казахстане начинают пользоваться интернетом в раннем возрасте. Исследование ЮНИСЕФ "Kazakhstan Kids Online" 2023 года показало, что 46 процентов детей впервые выходят в сеть в возрасте от пяти до восьми лет, а треть — в девять-двенадцать лет. Таким образом, к моменту поступления в среднюю школу, дети уже имеют несколько лет опыта онлайн-взаимодействия.

Справка: ЮНИСЕФ (UNICEF, United Nations Children’s Fund) — международная организация, работающая в более чем 190 странах для защиты прав и благополучия детей.

92 процента опрошенных детей используют смартфоны для выхода в интернет ежедневно, причем более половины тратят два и более часа в день на игры (51 процент) или общение с друзьями (57 процентов). Это увеличение активности на более чем 20 процентов за последние несколько лет.

"По данным ЮНИСЕФ, 33 процента населения Казахстана — это дети (6,7 миллиона человек — прим. редакции), и больше половины из них имеют высокую активность в сети. При этом сейчас снижается возраст первого выхода в интернет: если раньше это были дети восьми-девяти лет, то сейчас — уже четыре-пять лет, по сути дошкольники", — отмечает основательница НПО "TechnoWomen" Азиза Шужеева.

Таким образом, ежедневно более 3,3 миллиона детей в Казахстане активно потребляют разнообразный контент, общаются с другими людьми и ведут профили в социальных сетях, несмотря на формальные ограничения.

"Формально" — ключевое слово.

Большинство крупных платформ запрещает регистрацию до 13 лет, однако 60 процентов детей в возрасте девяти-десяти лет и 66 процентов одиннадцати-двенадцати лет уже имеют собственные аккаунты в социальных сетях, причем многие профили открыты для просмотра.

Реальные интернет-угрозы для детей: кибербуллинг и нежелательный контент

Интернет для казахстанских детей в первую очередь ассоциируется с социальными сетями и развлекательным контентом. 94 процента опрошенных детей считают, что в интернете много полезного, однако существует и вредоносный контент.

Сексуализированный контент представляет собой серьезную проблему. Каждый пятый опрошенный ребенок хотя бы раз за год сталкивался с ним, а 7 процентов — на регулярной основе.

Каждый двадцатый ребенок столкнулся с нежелательным сексуальным контактом онлайн.
  • 4,5 процента детей сталкивались с просьбами поговорить о сексе;
  • 3 процента — с сексуализированными комментариями;
  • 3 процента получали запросы скинуть свои интимные фото;
  • 3 процента — предложения денег или подарков в обмен на интимные фото;
  • 2 процента — предложения о личной встрече с сексуализированным подтекстом;
  • 2 процента подвергались шантажу с целью принуждения к сексуализированным действиям онлайн.
Каждый четвертый ребенок, переживший неприятный опыт в сети, никому не рассказал об этом.

Когда дети все же делятся своими переживаниями, они чаще всего обращаются к друзьям (32 процента), а не к родителям (24 процента). О сексуализированном насилии в сети сообщал лишь каждый десятый ребенок.

ЮНИСЕФ отмечает, что родители в Казахстане часто недооценивают интернет-угрозы, считая маловероятным, что их ребенок столкнется с чем-то тревожным в ближайшие три месяца.

Исследование показывает, что нежелательный сексуальный контакт в интернете чаще всего исходит от знакомых: родственников, сверстников или друзей.

"Всё, что происходит в сети, находит своё отражение в реальной жизни. Потерял деньги в сети — ухудшилось материальное положение. Стал жертвой цифрового насилия — последствия могут быть крайне тяжёлыми, вплоть до суицида. Эта проблема актуальна для всех, но особенно — для несовершеннолетних", — отмечает Азиза Шужеева.

Сексуальная эксплуатация детей — это новая форма цифрового насилия, при которой детей вовлекают в создание и распространение интимных материалов.

Роль ИИ в сексуальной эксплуатации детей

Существующие риски усугубляются с появлением генеративного искусственного интеллекта. Ранее для создания материалов с сексуальным насилием требовался реальный ребенок, теперь достаточно публичной страницы несовершеннолетнего с несколькими фотографиями.

Процесс, называемый LoRA, занимает всего 15 минут.

Злоумышленник может загрузить фотографии ребенка из открытых источников и получить инструмент для генерации реалистичных видео с этим ребенком в любом контексте, включая сексуализированный.

"Сегодня с помощью алгоритмов генерируются фейки, в том числе видео с изображениями конкретных детей в сексуальных форматах. Это серьёзная проблема. Исследований о том, как это влияет на психику ребёнка и его будущее развитие, практически нет", — отмечает Шужеева.

Британская организация Internet Watch Foundation (IWF) занимается мониторингом и удалением подобного контента. В июле 2025 года она зафиксировала 1 286 видеороликов с ИИ-контентом сексуализированного насилия над детьми, что является ростом в 643 раза по сравнению с предыдущим годом.

65 процентов из всех подтвержденных видео были классифицированы как категория A — наиболее тяжёлая по британскому законодательству, изображающая изнасилования и сексуальные пытки.

Некоторые материалы были обнаружены на платформах чат-ботов, которые внешне выглядят как легальные сервисы для взрослых, но содержат скрытые разделы с преступным контентом.

"В 11 странах не менее 1,2 миллиона детей сообщили о том, что за последний год их изображения были подвергнуты манипуляциям с помощью инструментов ИИ для создания откровенных сексуальных дипфейков", — говорится в исследовании.

Масштаб проблемы: мировая статистика цифрового насилия над подростками

По данным Фонда наблюдения за интернетом Великобритании, за месяц было обнаружено почти 14 000 изображений, предположительно сгенерированных ИИ, с сексуальным насилием над детьми. В Корее правоохранительные органы сообщили о десятикратном увеличении преступлений на сексуальной почве с использованием ИИ и технологий "дипфейк" с 2022 по 2024 год.

"Сегодня подростки гораздо более продвинуты в технологиях и многим из них не составляет труда сформулировать соответствующие промпты для ИИ", — отмечает Андрей Сиденко, руководитель направления по детской онлайн-безопасности "Лаборатории Касперского".

Опрос, проведенный организацией Thorn в США, показал, что 1 из 10 подростков знает о случаях, когда их друзья или одноклассники создавали интимные изображения других детей без их согласия, используя генеративный ИИ.

Дети также осведомлены об угрозах, связанных с ИИ, и в некоторых странах до двух третей респондентов выразили обеспокоенность тем, что ИИ может быть использован для создания поддельных изображений сексуального характера.

Как ИИ научили генерировать порнографию

Некоторые ИИ-модели обучались на реальных фотографиях и видео с насилием над детьми, что приводит к тому, что реальная травма реального ребенка встраивается в синтетический контент.

Материалы с реальным насилием стали частью обучающей базы нейросетей.

Для выявления и блокировки запрещенного контента нейросети должны быть обучены на примерах, что требует ручной маркировки огромных массивов данных. Часто такие задачи передаются на аутсорсинг в страны с низкой оплатой труда, где могут работать несовершеннолетние.

Рост технологий создает юридические проблемы, так как подозреваемые в создании подобного контента могут утверждать, что это не настоящая съемка, а ИИ-генерация.

IWF называет это "дивидендом лжеца": осведомленность о дипфейках создает алиби для преступников.

Производство такого контента стало более сложным, так как включает множество участников: создателя модели ИИ, того, кто ее дообучил, и платформу, где контент распространяется.

"Здесь нужно отметить одну важную вещь: сам по себе ИИ и создание дипфейков — это нейтральные технологии. Важнее то, как их используют люди", — отмечает Сиденко.

Мировой опыт борьбы: как другие страны наказывают за ИИ-преступления

На данный момент ни одна страна не может считаться образцом в контроле этой сферы. Правовая система не успевает за развитием технологий.

"Если в реальной жизни уровень правового регулирования безопасности достаточно высок, то сейчас все преступления переместились в интернет. Эта сфера практически нигде ещё нормально не отражена в законодательстве", — говорит Шужеева.

В США был принят закон Take It Down, вводящий уголовную ответственность за распространение материалов с несовершеннолетними, включая ИИ-сгенерированные. В Великобритании введен новый состав преступления за создание, хранение или распространение инструментов для генерации материалов сексуального насилия над детьми.

Тем не менее, технологии развиваются быстрее, чем законодательство успевает на них реагировать.

65 тысяч жалоб: реальный уровень цифровой угрозы для детей в Казахстане

В Казахстане за первую половину 2025 года было зарегистрировано 65 тысяч репортов о контенте, связанном с потенциальной сексуальной эксплуатацией детей. Однако не все они касаются порнографии.

Аналитики классифицировали эти репорты следующим образом:

Основные источники репортов — казахстанские операторы: Tele2 предоставил 24 тысячи, "Казахтелеком" — 18 тысяч, Mobile Telecom-Service — 9 500. Данные передаются NCMEC (американский Национальный центр по делам пропавших и эксплуатируемых детей), однако казахстанские ведомства не получают эти данные.

Как работают казахстанские правоохранители

Министерство внутренних дел Казахстана проводит мониторинг интернет-пространства и взаимодействует с международными партнерами. С начала 2025 года через систему "Кибернадзор" было направлено 2 766 материалов порнографического содержания для блокировки.

Ответственность за изготовление, хранение и распространение порнографических материалов, включая с участием несовершеннолетних, предусмотрена статьёй 311 Уголовного кодекса. При этом подчеркивается, что использование современных технологий не освобождает виновных от ответственности.

Тем не менее, статистика показывает, что 65 тысяч репортов за полгода сопоставимы с лишь 26 уголовными делами за весь 2025 год, что указывает на несоразмерность возможностей системы реагирования.

Главный вопрос — что с этим делать

Очевидным решением может показаться запрет или блокировка технологий, однако эксперты считают, что это не решит проблему.

"Современные инструменты позволяют блокировку обходить. Мы не можем физически отключиться от цифрового мира, поэтому нужно учиться с ним жить", — отмечает Шужеева.

Необходимы массовое обучение, развитие алгоритмов блокировки противоправного контента, ужесточение цифрового законодательства и развитие киберполиции.

ЮНИСЕФ, IWF и другие организации активно изучают эту проблему, чтобы научить пользователей цифровой гигиене и защите персональных данных. Например, в Эстонии основы цифровой грамотности вводятся уже в детском саду.

"Если ребенок в четыре-пять лет имеет доступ в интернет, он должен знать, как с этим работать", — подчеркивает Шужеева.

Также важна ответственность телекоммуникационных операторов, которые в Казахстане считают себя "только провайдерами". В других странах операторы обязаны предоставлять функции родительского контроля.

Платформы также должны нести ответственность за контент, который они распространяют. Казахстан может требовать от платформ соблюдения местных стандартов в качестве условия для работы в стране.

Существуют реальные инструменты борьбы, такие как метод хеширования и детекции, которые могут помочь в блокировке противоправного контента на этапе загрузки.

"Нужно, чтобы платформы несли ответственность. Далее нужно усиливать цифровое законодательство и развивать киберполицию", — добавляет Шужеева.

Казахстан принял закон об искусственном интеллекте, согласно которому весь сгенерированный контент должен маркироваться, однако реализация этого закона остается под вопросом.

"Конституция даёт вектор. Но дальше — механизм. А механизм требует институтов, бюджетов, специалистов и понимания, что именно нужно регулировать", — считает Шужеева.

ЮНИСЕФ подчеркивает, что внимание к правам детей в ИИ-политике должно стать нормой, и необходимо действовать сейчас, чтобы предотвратить ухудшение ситуации.

"Мы всё ещё учим детей не разговаривать с незнакомцами. Но незнакомец теперь — в алгоритме рекомендаций, в чат-боте, который притворяется другом", — заключает Шужеева.

Необходимо учить детей новому и самим учиться.

Поделиться:
Все изображения и материалы в публикации получены из открытых источников. Если вы являетесь правообладателем, ознакомьтесь с информацией для правообладателей.
Популярные новости