Просто о сложном

Опасный бэкдор в популярных чатботах ИИ — хакеры легко перехватывают ваши сообщения

29 января, 18:51

Исследователи кибербезопасности из корпорации Майкрософт выявили критическую уязвимость современных систем искусственного интеллекта (ИИ), которая позволяет злоумышленникам перехватывать переписки с чатботами. Эта находка вызывает тревогу, поскольку она поражает один из основных механизмов защиты приватности — шифрование. В результате, зашифрованные диалоги, предназначенные для обеспечения конфиденциальности, могут быть легко взломаны, что ставит под угрозу как личные данные пользователей, так и крупные коммерческие и государственные интересы.

Что такое уязвимость Whisper Leak и как она работает

Научная статья, опубликованная 5 ноября в престижном репозитории arXiv, подробно описывает новую технику атаки, получившую название Whisper Leak. Эта атака относится к категории «человек – посередине» (MITM — man-in-the-middle), при которой злоумышленник вставляется в поток данных между пользователем и сервером ИИ, перехватывая сообщения еще до того, как они достигнут получателя.

Главная особенность Whisper Leak заключается в возможности читать метаданные передаваемых сообщений — такие как длина, временные метки, частота и структура данных. Эти параметры, несмотря на использование современных протоколов шифрования, позволяют восстанавливать смысл сообщений без непосредственного чтения их содержимого. Исследователи продемонстрировали, что анализ размеров пакетов и временных задержек может быть достаточным для того, чтобы извлечь ключевую информацию о диалогах.

«Мы наблюдали, что даже шифрование TLS, широко используемое в коммуникациях с чатботами, не защищает от анализа метаданных. Злоумышленники могут использовать эти данные для скрытого проникновения в разговоры и получения ценной информации»

Технические детали и реальные кейсы

Методика Whisper Leak опирается на понимание, что зашифрованные сообщения состоят из пакетов, размеры которых связаны с содержимым. Например, ответ чатбота, содержащий технические термины или личные сведения, может иметь характерные размеры и временные параметры, что позволяет сделать предположения о его содержании.

Исследователи показали, что, анализируя последовательность токенов — минимальных единиц текста, используемых ИИ — и их длину, можно воссоздать фразы и даже целые ответы без необходимости взлома самого шифра. В качестве примера приведем ситуацию, когда пользователь в медучреждении обсуждает с чатботом результаты анализов. Даже при использовании HTTPS злоумышленник, наблюдающий за трафиком, сможет сделать выводы о теме разговора и определить, какая информация передается — например, речь идет о диагнозе или о лечении.

Это не гипотетическая опасность: в реальных условиях такие атаки уже практикуются. В частности, аналитические компании и государственные структуры используют подобные техники для слежки за активностью пользователей на разных платформах, что подтверждает актуальность проблемы.

Почему это важно для пользователей и бизнеса

Современные чатботы на базе ЛЛМ (Large Language Models — большие языковые модели), такие как ChatGPT или аналогичные системы, собирают огромные объемы данных, в том числе конфиденциальные медицинские, юридические и финансовые сведения. Обеспечение их безопасности — приоритет для разработчиков, особенно при внедрении в критические сферы.

Ключевая проблема заключается в том, что, несмотря на использование SSL/TLS, безопасность коммуникаций зависит от архитектурных решений, в которых и возникает уязвимость. Согласно исследованиям, некоторые из крупнейших провайдеров — в том числе Microsoft и OpenAI — уже начали внедрять меры по устранению проблемы. Другие компании не спешат реагировать, что создает риск масштабных утечек.

«Это как дверь с замком, у которого есть дырка. Внутри системы есть механизмы шифрования, но через метаданные злоумышленники могут проникнуть внутрь, не взламывая сам замок» — комментирует эксперт по безопасности.

Возможные решения и меры предосторожности

Авторы исследования предложили несколько методов смягчения угрозы, среди которых:

  • Рандомизация длины ответов — добавление случайных байтов в сообщения для увеличения их длины и невозможности точного анализа размеров пакетов.
  • Использование дополнительного уровня шифрования — например, протоколов, скрывающих метаданные или маскирующих их.
  • Обеспечение анонимности и маскировки — использование VPN или иных технологий для сокрытия IP-адреса и геолокации.

Несмотря на относительно простые методы защиты, большинство провайдеров еще не реализовали их полностью, что оставляет простор для атак.

Что делают исследователи и как избежать опасности

Команда ученых из Майкрософт подчеркивает, что устранение уязвимости — задача не из сложных. Однако необходимость в массовом обновлении систем и пересмотре архитектурных решений требует времени. В interim, пользователи рекомендуют:

  1. Не обсуждать чувствительные темы на общедоступных или ненадежных сетях.
  2. Использовать VPN для шифрования и сокрытия метаданных трафика.
  3. Следить за обновлениями и применять исправления, предоставляемые разработчиками.
  4. Осознавать, что даже зашифрованная переписка может быть анализирована через метаданные.

Эксперты указывают, что в случае утечки личных данных или конфиденциальных сведений, ответственность может лечь как на владельцев систем, так и на пользователей, которые пренебрегают базовыми мерами защиты.

Обнаруженная уязвимость — очередной вызов современной эпохи цифровых технологий, где безопасность и приватность требуют постоянного совершенствования. Для разработчиков ИИ важно не только создавать мощные инструменты, но и обеспечивать их надежную защиту. Для пользователей — быть внимательными к уровню безопасности своих данных и использовать доступные методы защиты.

Грядущие годы покажут, насколько быстро индустрия сможет устранить эти недочеты, и какие новые угрозы появятся на горизонте. Но уже сегодня очевидно — безопасность в эпоху ИИ — одна из главных задач XXI века.