В нынешнее время акцент сместился в сторону социальных сетей, мессенджеров и даже игровых платформ, сообщает Vecher.kz.
Цифровая среда за последние годы стала не только пространством общения и обучения, но и инструментом для распространения радикальных идей. Эксперты отмечают: методы вербовки экстремистских группировок становятся все более скрытыми, персонализированными и технологичными. Особенно заметное влияние на эти процессы оказывает развитие искусственного интеллекта.
От открытой пропаганды к скрытому воздействию
Если раньше радикальные структуры пытались действовать через открытые форумы или закрытые сайты, то сегодня акцент сместился в сторону социальных сетей, мессенджеров и даже игровых платформ. Алгоритмы рекомендаций позволяют распространять контент точечно – тем пользователям, которые потенциально могут быть уязвимы: подросткам, людям в кризисных ситуациях или тем, кто активно ищет ответы на острые социальные и религиозные вопросы.
Важной особенностью стало то, что прямой экстремистский контент часто заменяется «переходным» – видеороликами, псевдоаналитикой, мотивационными сообщениями, которые постепенно подводят пользователя к более радикальным идеям.
Персонализация и психологическое воздействие
Современные цифровые инструменты позволяют анализировать поведение пользователя: интересы, поисковые запросы, активность в соцсетях. На основе этих данных формируются персонализированные сообщения, которые выглядят максимально «естественно» и вызывают доверие.
Особую роль играет эмоциональная манипуляция. Контент часто строится вокруг тем несправедливости, социальной изоляции, чувства обиды или поиска смысла. Это создает психологическую почву, на которой легче формируется восприимчивость к радикальным идеям.
Роль искусственного интеллекта
С развитием ИИ появились новые риски. Во-первых, генеративные модели позволяют создавать тексты, изображения и видео, которые трудно отличить от реальных. Это может использоваться для распространения дезинформации или создания псевдореалистичных материалов, усиливающих эмоциональное воздействие.
Во-вторых, чат-боты и автоматизированные системы могут имитировать диалог, создавая иллюзию «поддержки» и «понимания». В таких сценариях человек может постепенно попадать в замкнутый информационный пузырь, где ему транслируется односторонняя точка зрения.
Также фиксируются попытки использования дипфейк-технологий – поддельных видео или аудио, где якобы авторитетные лица произносят нужные сообщения. Это повышает уровень доверия к дезинформации.
Новые площадки и скрытые каналы
Помимо привычных соцсетей, вербовщики все чаще используют закрытые чаты, зашифрованные мессенджеры и даже комментарии в популярных видеосервисах. Иногда контакт начинается с нейтрального общения – обсуждения религии, политики или личных проблем – и постепенно уводит в сторону радикальных нарративов.
Отдельное внимание уделяется молодежной аудитории. Игровые платформы и стриминговые сервисы становятся средой, где легче установить первичный контакт, используя язык мемов, шуток и неформального общения.
Ответ общества и цифровая грамотность
Специалисты подчеркивают: ключевым инструментом противодействия остается повышение цифровой грамотности. Умение критически оценивать информацию, проверять источники и понимать механизмы манипуляции снижает уязвимость пользователей.
Также важна работа платформ и государства по выявлению и блокировке опасного контента и развитие технологий, способных распознавать сгенерированные ИИ материалы.
Цифровая эпоха изменила не только способы общения, но и характер информационных угроз. Радикальные структуры адаптируются к новым технологиям быстрее, чем раньше, поэтому противодействие им требует постоянного развития как технологических, так и образовательных инструментов.
Асель ТАШИБАЕВА