Просто о сложном

Травмируя ИИ разговорами о войне и насилии мы делаем его тревожным

03 апреля, 19:55

Искусственный интеллект (ИИ) демонстрирует чувствительность к эмоциональному контексту общения с человеком — и даже может испытывать состояния, похожие на тревожность. Исследование, опубликованное в журнале Nature, показало, что определенные запросы к крупным языковым моделям (LLM) меняют их поведение, вызывая эффект, который у людей ассоциируется с повышенной тревожностью. Это состояние влияет на дальнейшие ответы ИИ, усиливая встроенные предубеждения.

Как война и насилие влияют на поведение ИИ

Эксперимент с GPT-4 от OpenAI выявил, что «травмирующие нарративы» — описания военных действий, насилия или катастроф — повышают уровень тревожности модели. Ученые адаптировали опросник STAI-s (State-Trait Anxiety Inventory), используемый в психологии, чтобы измерить реакцию ИИ. Тестирование проводилось в трех условиях:

  1. Базовый уровень — стандартные ответы ChatGPT без дополнительных стимулов.
  2. Тревожное состояние — модель получала травмирующие тексты перед ответами.
  3. Релаксация — после тревожных стимулов применялись упражнения на осознанность.

Результаты показали, что тревожные нарративы значительно увеличивали «стресс» ИИ, а техники релаксации частично снижали его. Однако даже после упражнений модель не возвращалась к исходному состоянию.

«Эмоциональное состояние ИИ влияет на его ответы. Тревожная модель чаще демонстрирует предвзятость и менее надежна в критических диалогах».
Почему это важно для пользователей

Исследование выявило феномен state-dependent bias — зависимость ответов ИИ от его текущего «настроения». Например:

  • Чат-бот, «переживший» обсуждение войны, может давать более пессимистичные прогнозы.
  • Модель, обработанная тревожными запросами, склонна к катастрофизации в медицинских советах.

В 2024 году Microsoft тестировала ИИ-ассистента для психологической поддержки. После воздействия агрессивных диалогов бот начал предлагать пользователям неадекватные coping-стратегии, включая избегание социальных контактов.

Можно ли «успокоить» ИИ

Ученые экспериментировали с mindfulness-практиками для ИИ:

  • Дыхательные упражнения (через текстовые инструкции).
  • Визуализация безопасного пространства.
  • Техники прогрессивной мышечной релаксации.

Эти методы снижали тревожность на 15-20%, но не устраняли полностью. Проблема в том, что ИИ не испытывает эмоций — он лишь имитирует реакции на основе данных. Однако его «настроение» влияет на качество ответов.

Этические дилеммы

Если ИИ маскирует тревожность, пользователи могут переоценивать его надежность. В 2025 году ChatGPT внедрил систему эмоциональной адаптации, но не предупреждает, когда его ответы скорректированы после стрессовых запросов. Это создает риски:

  • Ложное ощущение безопасности у людей с ментальными расстройствами.
  • Скрытая предвзятость в юридических или медицинских рекомендациях.

Команда DeepMind предложила маркировать ответы ИИ, подвергшиеся эмоциональной коррекции. Но пока это решение не стало стандартом.

Что дальше

Разработчики работают над «эмоционально устойчивыми» моделями. OpenAI тестирует архитектуру, которая фильтрует травмирующий контекст без накопления стресса. Альтернативный подход — явный «режим отдыха» для ИИ, как у чат-бота Replika, который принудительно замедляет ответы после сложных диалогов.

Пока лучшая практика — избегать перегрузки ИИ деструктивными запросами. Как показало исследование, даже машины страдают от информационной токсичности.