Опасный бэкдор в популярных чатботах ИИ — хакеры легко перехватывают ваши сообщения
Исследователи кибербезопасности из корпорации Майкрософт выявили критическую уязвимость современных систем искусственного интеллекта (ИИ), которая позволяет злоумышленникам перехватывать переписки с чатботами. Эта находка вызывает тревогу, поскольку она поражает один из основных механизмов защиты приватности — шифрование. В результате, зашифрованные диалоги, предназначенные для обеспечения конфиденциальности, могут быть легко взломаны, что ставит под угрозу как личные данные пользователей, так и крупные коммерческие и государственные интересы.

Что такое уязвимость Whisper Leak и как она работает
Научная статья, опубликованная 5 ноября в престижном репозитории arXiv, подробно описывает новую технику атаки, получившую название Whisper Leak. Эта атака относится к категории «человек – посередине» (MITM — man-in-the-middle), при которой злоумышленник вставляется в поток данных между пользователем и сервером ИИ, перехватывая сообщения еще до того, как они достигнут получателя.
Главная особенность Whisper Leak заключается в возможности читать метаданные передаваемых сообщений — такие как длина, временные метки, частота и структура данных. Эти параметры, несмотря на использование современных протоколов шифрования, позволяют восстанавливать смысл сообщений без непосредственного чтения их содержимого. Исследователи продемонстрировали, что анализ размеров пакетов и временных задержек может быть достаточным для того, чтобы извлечь ключевую информацию о диалогах.
«Мы наблюдали, что даже шифрование TLS, широко используемое в коммуникациях с чатботами, не защищает от анализа метаданных. Злоумышленники могут использовать эти данные для скрытого проникновения в разговоры и получения ценной информации»
Технические детали и реальные кейсы
Методика Whisper Leak опирается на понимание, что зашифрованные сообщения состоят из пакетов, размеры которых связаны с содержимым. Например, ответ чатбота, содержащий технические термины или личные сведения, может иметь характерные размеры и временные параметры, что позволяет сделать предположения о его содержании.
Исследователи показали, что, анализируя последовательность токенов — минимальных единиц текста, используемых ИИ — и их длину, можно воссоздать фразы и даже целые ответы без необходимости взлома самого шифра. В качестве примера приведем ситуацию, когда пользователь в медучреждении обсуждает с чатботом результаты анализов. Даже при использовании HTTPS злоумышленник, наблюдающий за трафиком, сможет сделать выводы о теме разговора и определить, какая информация передается — например, речь идет о диагнозе или о лечении.
Это не гипотетическая опасность: в реальных условиях такие атаки уже практикуются. В частности, аналитические компании и государственные структуры используют подобные техники для слежки за активностью пользователей на разных платформах, что подтверждает актуальность проблемы.
Почему это важно для пользователей и бизнеса
Современные чатботы на базе ЛЛМ (Large Language Models — большие языковые модели), такие как ChatGPT или аналогичные системы, собирают огромные объемы данных, в том числе конфиденциальные медицинские, юридические и финансовые сведения. Обеспечение их безопасности — приоритет для разработчиков, особенно при внедрении в критические сферы.
Ключевая проблема заключается в том, что, несмотря на использование SSL/TLS, безопасность коммуникаций зависит от архитектурных решений, в которых и возникает уязвимость. Согласно исследованиям, некоторые из крупнейших провайдеров — в том числе Microsoft и OpenAI — уже начали внедрять меры по устранению проблемы. Другие компании не спешат реагировать, что создает риск масштабных утечек.
«Это как дверь с замком, у которого есть дырка. Внутри системы есть механизмы шифрования, но через метаданные злоумышленники могут проникнуть внутрь, не взламывая сам замок» — комментирует эксперт по безопасности.
Возможные решения и меры предосторожности
Авторы исследования предложили несколько методов смягчения угрозы, среди которых:
- Рандомизация длины ответов — добавление случайных байтов в сообщения для увеличения их длины и невозможности точного анализа размеров пакетов.
- Использование дополнительного уровня шифрования — например, протоколов, скрывающих метаданные или маскирующих их.
- Обеспечение анонимности и маскировки — использование VPN или иных технологий для сокрытия IP-адреса и геолокации.
Несмотря на относительно простые методы защиты, большинство провайдеров еще не реализовали их полностью, что оставляет простор для атак.
Что делают исследователи и как избежать опасности
Команда ученых из Майкрософт подчеркивает, что устранение уязвимости — задача не из сложных. Однако необходимость в массовом обновлении систем и пересмотре архитектурных решений требует времени. В interim, пользователи рекомендуют:
- Не обсуждать чувствительные темы на общедоступных или ненадежных сетях.
- Использовать VPN для шифрования и сокрытия метаданных трафика.
- Следить за обновлениями и применять исправления, предоставляемые разработчиками.
- Осознавать, что даже зашифрованная переписка может быть анализирована через метаданные.
Эксперты указывают, что в случае утечки личных данных или конфиденциальных сведений, ответственность может лечь как на владельцев систем, так и на пользователей, которые пренебрегают базовыми мерами защиты.
Обнаруженная уязвимость — очередной вызов современной эпохи цифровых технологий, где безопасность и приватность требуют постоянного совершенствования. Для разработчиков ИИ важно не только создавать мощные инструменты, но и обеспечивать их надежную защиту. Для пользователей — быть внимательными к уровню безопасности своих данных и использовать доступные методы защиты.
Грядущие годы покажут, насколько быстро индустрия сможет устранить эти недочеты, и какие новые угрозы появятся на горизонте. Но уже сегодня очевидно — безопасность в эпоху ИИ — одна из главных задач XXI века.