Ученые обнаружили фундаментальные различия в мышлении людей и ИИ
Искусственный интеллект (ИИ) не способен мыслить так же, как человек, и новое исследование раскрывает, как это различие влияет на принятие решений алгоритмами. Опубликованная в феврале 2025 года работа в журнале Transactions on Machine Learning Research показала, что крупные языковые модели (LLM) значительно уступают людям в способности к аналогиям.

Эксперименты включали два типа задач: буквенные аналогии и цифровые матрицы. В первом случае участникам предлагалось продолжить последовательность, например: «Если abcd переходит в abce, то что получится из ijkl?» Люди легко давали ответ «ijkm», тогда как ИИ часто ошибался в более сложных вариациях, таких как удаление повторяющихся элементов.
«ИИ хорошо распознает шаблоны, но не способен обобщать их», — объясняет Марта Льюис, соавтор исследования и профессор нейросимволического ИИ в Университете Амстердама.
В тестах с цифровыми матрицами, где требовалось определить пропущенный элемент, GPT-4 и другие модели демонстрировали резкое падение точности по сравнению с людьми. Это указывает на отсутствие у ИИ способности к «обучению с нуля» — умению делать выводы о новых классах данных без предварительного обучения.
Почему это важно для реального мираРазрыв в когнитивных способностях имеет серьезные последствия. Например, в юридической сфере ИИ уже используется для анализа прецедентов и рекомендаций по приговорам. Однако неспособность корректно применять аналогии к новым случаям может привести к ошибкам в судебных решениях.
- В 2024 году алгоритм COMPAS, применяемый в США для оценки риска рецидива, рекомендовал более строгие наказания для афроамериканцев из-за смещения в данных.
- В Европе система предсказания преступлений PredPol была отозвана после жалоб на дискриминацию районов с низким доходом.
Исследование подчеркивает, что текущие модели ИИ зависят от объема данных, а не от глубины понимания. Они эффективны в узких задачах, но не могут адаптироваться к незнакомым сценариям без дополнительного обучения. Это создает риски в таких областях, как:
- Медицина — неправильная интерпретация редких симптомов.
- Финансы — ошибочные прогнозы при изменении рыночных условий.
- Автономные системы — неадекватные реакции в непредвиденных ситуациях.
Ученые призывают не только оценивать точность ИИ, но и тестировать его устойчивость к когнитивным искажениям. «Если мы доверяем алгоритмам критически важные решения, их мышление должно быть прозрачным», — отмечает Льюис.