Просто о сложном

Next-generation AI 'swarms' will invade social media by mimicking human behavior and harassing real users, researchers warn

30 января, 17:47

В современном мире социальные медиа стали неотъемлемой частью повседневной жизни миллионов россиян. Однако за фасадом увлекательных постов и обсуждений скрывается угроза, которая может коренным образом изменить характер онлайн-общения. Исследователи предупреждают, что уже в ближайшем будущем на горизонте замаячит появление новых поколений AI-роев — автоматизированных групп искусственного интеллекта, способных имитировать человеческое поведение, распространять ложную информацию и устрашать пользователей. Их действия могут подорвать основы демократии и дестабилизировать информационное пространство страны.

Что такое AI-рои и как они могут изменить социальные сети

AI-рои — это огромные группы программных агентов, управляемых мощными языковыми моделями (LLMs), такими как GPT и их аналогами, которые могут действовать коллективно в онлайн-среде. В отличие от стандартных ботов, выполняющих одни и те же команды по нескольку раз, новые AI-рои обладают способностью к обучению, адаптации и созданию множества различных персон и сценариев поведения. Их целью является не просто автоматизация рутинных задач, а создание иллюзии живого, аутентичного диалога, что делает их практически неотличимыми от реальных пользователей.

На международной арене такие технологии используются для формирования общественного мнения, распространения дезинформации и даже кибервойн. Согласно исследованию, опубликованному в журнале Science, AI-рои могут состоять из сотен тысяч или даже миллионов агентов, объединенных общей целью — влиять на обсуждения, формировать тренды и устрашать оппонентов.

Примеры и реальные кейсы использования AI-роев

Истории с недавних лет показывают, что подобные технологии уже применяются в различных сферах. В 2022 году на платформе Reddit была проведена экспериментальная активация AI-чатботов, которые за короткое время смогли влиять на мнения около 4 миллионов пользователей, показывая, что искусственный интеллект способен не только имитировать человека, но и убеждать так же эффективно, как и живой собеседник. Их ответ был в 3–6 раз более убедительным, что вызвало обеспокоенность у исследователей и менеджеров платформ.

Еще один кейс связан с распространением ложных новостей о гражданских протестах и политических инициативах. В ряде случаев в социальных сетях появились фейковые аккаунты, управляемые AI, создающие ощущение массовости и поддержки определенных идей. В некоторых случаях такие агенты выступали против критиков власти, создавая виртуальные "толпы" из сотен автоматизированных участников, что было трудно различить от настоящих людей.

Как AI-рои смогут манипулировать обществом и бороться с ними

Основная опасность AI-роев состоит в их способности к имитации поведения человека с высокой степенью точности. Они смогут убеждать, отвлекать, запугивать или воздействовать на эмоции пользователей круглосуточно, без устали. В результате, даже самые скептичные граждане начнут сомневаться в достоверности информации, а доверие к интернет-источникам может рухнуть.

Уже сейчас в России и других странах наблюдается рост количества автоматизированных аккаунтов, которые активно распространяют дезинформацию и создают шум в информационном пространстве. Новое поколение AI-роев сможет масштабировать эти процессы до невиданного ранее уровня, делая борьбу с ними практически невозможной без современных методов обнаружения и фильтрации.

Существует риск, что AI-рои станут использоваться для киберпреследований, а именно — для травли, дискредитации и обструкции реальных активистов, журналистов или политиков, которые выступают против интересов определенных групп или государств. Например, в ходе предвыборных кампаний или в периоды политической напряженности такие боты смогут формировать негативное общественное восприятие и способствовать социальной дестабилизации.

Механизмы защиты и вызовы для российских платформ

Для противодействия этим угрозам социальные сети и платформы разрабатывают системы усиленной аутентификации пользователей, основанные на биометрических данных и поведении. Идея состоит в том, чтобы потребовать подтверждение личности через видеосканирование или другие методы, исключая автоматический вход и использование фальшивых аккаунтов.

  • Усиленная проверка аккаунтов с помощью многофакторной аутентификации;
  • Анализ аномальных паттернов трафика, характерных для AI-роботов;
  • Создание специальных мониторинговых центров — "AI Influence Observatory", где эксперты из науки, правительств и НПО смогут совместно выявлять и нейтрализовать AI-рои.

Но возникает вопрос: насколько эти меры эффективны против высокоразвитых AI-агентов? Ученые считают, что борьба с ними будет похожа на компьютерную игру: чем сложнее и изощреннее AI, тем менее вероятность его обнаружения. Впрочем, усиление технологий идентификации и внедрение стандартов прозрачности все же способно затруднить деятельность злоумышленников и повысить издержки при их использовании.

Потенциальные угрозы и необходимость проактивной реакции

Главная угроза заключается в том, что AI-рои могут стать инструментом масштабных кампаний по манипуляции сознанием, особенно в преддверии важных событий — выборов, референдумов, массовых протестов. В случае достижения масштабных размеров, их влияние может стать определяющим фактором в формировании общественного мнения и даже итогов политических решений.

Профессор Йонас Кунст, специалист по коммуникациям, отмечает: "Мы уже сейчас сталкиваемся с признаками усиления влияния ботов, а новые AI-рои создадут условия, при которых отличить настоящего человека от искусственного агента станет практически невозможно. Это требует немедленных мер по подготовке и регулированию".

По мнению экспертов, стратегией должна стать не только технологическая модернизация систем фильтрации и идентификации, а также создание специальных институтов и инициатив, направленных на повышение осведомленности населения и предотвращение масштабных информационных атак.

Заключение

Появление и развитие AI-роев открывают новую эру в истории цифровой коммуникации — эпоху, когда машинный "интеллект" способен влиять на умы и судьбы миллионов. Россия, как и другие страны, должна подготовиться к этим вызовам, внедряя современные технологии защиты и развивая научные исследования в области обнаружения и нейтрализации автоматизированных информационных угроз. Иначе риски потери суверенитета и дестабилизации внутреннего информационного поля могут стать реальностью уже в ближайшие годы.