Просто о сложном

Ученые обнаружили фундаментальные различия в мышлении людей и ИИ

05 апреля, 14:15

Искусственный интеллект (ИИ) не способен мыслить так же, как человек, и новое исследование раскрывает, как это различие влияет на принятие решений алгоритмами. Опубликованная в феврале 2025 года работа в журнале Transactions on Machine Learning Research показала, что крупные языковые модели (LLM) значительно уступают людям в способности к аналогиям.

Как ИИ справляется с простыми задачами

Эксперименты включали два типа задач: буквенные аналогии и цифровые матрицы. В первом случае участникам предлагалось продолжить последовательность, например: «Если abcd переходит в abce, то что получится из ijkl?» Люди легко давали ответ «ijkm», тогда как ИИ часто ошибался в более сложных вариациях, таких как удаление повторяющихся элементов.

«ИИ хорошо распознает шаблоны, но не способен обобщать их», — объясняет Марта Льюис, соавтор исследования и профессор нейросимволического ИИ в Университете Амстердама.

В тестах с цифровыми матрицами, где требовалось определить пропущенный элемент, GPT-4 и другие модели демонстрировали резкое падение точности по сравнению с людьми. Это указывает на отсутствие у ИИ способности к «обучению с нуля» — умению делать выводы о новых классах данных без предварительного обучения.

Почему это важно для реального мира

Разрыв в когнитивных способностях имеет серьезные последствия. Например, в юридической сфере ИИ уже используется для анализа прецедентов и рекомендаций по приговорам. Однако неспособность корректно применять аналогии к новым случаям может привести к ошибкам в судебных решениях.

  • В 2024 году алгоритм COMPAS, применяемый в США для оценки риска рецидива, рекомендовал более строгие наказания для афроамериканцев из-за смещения в данных.
  • В Европе система предсказания преступлений PredPol была отозвана после жалоб на дискриминацию районов с низким доходом.
Ограничения ИИ и будущие вызовы

Исследование подчеркивает, что текущие модели ИИ зависят от объема данных, а не от глубины понимания. Они эффективны в узких задачах, но не могут адаптироваться к незнакомым сценариям без дополнительного обучения. Это создает риски в таких областях, как:

  1. Медицина — неправильная интерпретация редких симптомов.
  2. Финансы — ошибочные прогнозы при изменении рыночных условий.
  3. Автономные системы — неадекватные реакции в непредвиденных ситуациях.

Ученые призывают не только оценивать точность ИИ, но и тестировать его устойчивость к когнитивным искажениям. «Если мы доверяем алгоритмам критически важные решения, их мышление должно быть прозрачным», — отмечает Льюис.