Просто о сложном

ИИ постоянно галлюцинирует, но есть выход

19 июня, 21:03

В современном мире развитие искусственного интеллекта (ИИ) стремительно набирает обороты, но за этим прогрессом скрываются значительные проблемы, которые ставят под сомнение надежность и безопасность технологий. Самая серьезная из них — постоянное возникновение «галлюцинаций» у больших языковых моделей (БЯМ), таких как ChatGPT, Google Gemini или Meta Llama. Эти модели не просто делают ошибки — они часто выводят совершенно вымышленные факты, что может иметь серьезные последствия, начиная с распространения дезинформации и заканчивая угрозами безопасности.

Что такое галлюцинации ИИ и почему они возникают?

Термин «галлюцинации» в контексте ИИ обозначает ситуации, когда модель генерирует ложную или искаженную информацию, воспринимаемую как достоверную. Например, в 2023 году профессор юридических наук Джонатан Турли был ложно обвинен в домогательствах по результатам взаимодействия с ChatGPT. Несмотря на очевидную ошибку, разработчики предпочли просто ограничить возможность модели отвечать на вопросы о нем, что не решает саму проблему. В результате ИИ продолжает «галлюцинирование», порождая ложные утверждения и создавая риск для доверия к технологиям.

Проблема действительно масштабная. Согласно исследованию Университета Карнеги-Меллон, около 30% ответов современных БЯМ содержат хотя бы одну ошибку, а некоторые типы ошибок, такие как искажение фактов, достигают 15%. Такие показатели демонстрируют, что текущие системы не могут обеспечить уровень точности, необходимый для практического использования в критичных сферах — медицине, юриспруденции или финансовых услугах.

Почему модель «галлюцинирует»? Технический взгляд

Большие языковые модели строятся на технологии глубокого обучения, где они обучаются на огромных массивах текстовых данных. Модель запоминает вероятностные связи между словами и предложениями, что позволяет ей предсказывать следующий наиболее вероятный фрагмент текста. Однако она не обладает реальным пониманием, она лишь выявляет статистические закономерности. В результате, если модель не нашла в своих данных достоверной информации, она может «придумать» ответ, основываясь на сходных, но ложных паттернах.

Этот процесс можно представить как цепочку логических рассуждений, моделируемых в цепочках мыслей — так называемый «chain-of-thought». И хотя такие цепочки создают иллюзию рассуждения, на деле модель не имеет понимания, а лишь оперирует вероятностями. Поэтому, когда она сталкивается с уникальными или редкими ситуациями, шансы ошибиться резко возрастает.

Проблемы масштабирования и текущие решения

Чтобы повысить точность, разработчики расширяют объем данных и модельные параметры. Но это приводит к новым сложностям: увеличение потребности в вычислительной мощности и энергетических ресурсах. В среднем, для обучения модели с миллиардом параметров требуется сотни мегаватт электроэнергии, что эквивалентно ежегодному потреблению целого города среднего размера, например, Казани.

Одним из распространенных методов борьбы с ошибками является так называемый «человек-участник» — вмешательство специалистов, которые проверяют и корректируют ответы модели. Но это лишь временное решение, неэффективное при масштабных применениях. Особенно опасно в ситуациях, где автоматизация должна быть полностью автономной — например, при управлении автономными транспортными системами или медицинскими диагностиками.

Дополнительно, модели часто обучаются на синтетических данных, создаваемых искусственным интеллектом, что способствует порождению новых ошибок, уже не связанных напрямую с исходными источниками. Такой замкнутый цикл усиливает наследование ошибок и не позволяет достичь требуемого уровня надежности.

Новые подходы: нейросимвольный ИИ как решение

Идеальный путь к решению проблемы галлюцинаций — интеграция нейросетевых моделей с формальным логическим выводом, известную как нейросимвольный ИИ (нейросимвольная искусственный интеллект). В отличие от классических БЯМ, этот подход объединяет преимущества обучения на данных с точностью и объяснимостью формальных правил.

В нейросимвольных системах модель не только запоминает вероятности, но и использует логические правила, математические формулы и смысловые конвенции, которые позволяют ей проверять свои выводы и избегать ошибок. Например, если ИИ знает правило «если идет дождь, то внешний объект мокрый», оно применяется ко всем новым ситуациям без необходимости помнить каждое конкретное подтверждение.

Это позволяет создавать системы, которые никогда не «галлюцируют», потому что их решения основываются на строгих и проверяемых знаниях, а не только на вероятностных связях.

Практические примеры и преимущества нейросимвольного ИИ

  • Меньшее потребление ресурсов: благодаря знаниям, структурированным в виде правил, системы требуют меньше данных для обучения и хранения информации.
  • Повышенная объяснимость: любые выводы можно проследить и проверить, что критично в медицине, юриспруденции и финансовых системах.
  • Рост надежности: системы могут исправлять свои ошибки сами, проверяя логическую последовательность выводов и соответствие правил.

Например, в проекте Google AlphaFold, который предсказывает структуру белков для разработки лекарств, уже применяются нейросимвольные принципы. В результате, модель не только показывает высокую точность предсказаний, но и объясняет свои выводы, что позволяет ученым доверять автоматизированным оценкам.

Будущее нейросимвольного ИИ и вызовы развития

Во второй половине 2020-х годов развитие нейросимвольных систем демонстрирует быстрый прогресс. В Китае компания DeepSeek внедряет методы «дистилляции», когда нейросеть учится на меньшем объеме данных, извлекая и обобщая знания. В то же время, крупные корпорации, такие как OpenAI и Google, продолжают расширять модели, делая упор на масштабирование, однако начинают внедрять нейросимвольные принципы в более узких сферах.

Основная сложность — это разработка универсальных правил, способных быть применимыми для широкого спектра задач и сценариев. Пока что, нейросимвольные системы лучше показывают себя в конкретных областях: биоинформатике, геометрии, логистике. Для общего ИИ необходимо совершенствовать алгоритмы, умеющие самостоятельно извлекать и формализовать правила из данных, а также эффективно проверять свои выводы.

Заключение: путь к надежному ИИ

Современные технологии движутся к созданию систем, которые не только «учатся», но и «понимают». Нейросимвольный ИИ обещает избавиться от проблемы галлюцинаций, повысить безопасность, снизить зависимость от больших массивов данных и обеспечить прозрачность решений. Но для этого необходимо продолжать исследования, развивать новые методы и интегрировать их в коммерческие и общественные системы.

Преодоление фундаментальных ограничений существующих ЛЛМ возможно только через сочетание статистического обучения и формальных методов. Если ученым удастся реализовать эти идеи, будущее автоматизированных систем станет более безопасным, надежным и приемлемым для общества.

Области применения: искусственный интеллект, нейросимвольный ИИ, галлюцинации ИИ, безопасность ИИ, автоматизация, машинное обучение, логика и формальные правила, объяснимый ИИ, нейросетевые модели