The more that people use AI, the more likely they are to overestimate their own abilities
Когда мы задаемся вопросом о собственной компетентности — насколько хорошо мы справляемся с какой-либо задачей — наше восприятие зачастую оказывается искаженным. Это универсальный феномен, известный как эффект Даннинга-Крюгера, который подтверждается множеством психологических исследований. Согласно ему, люди с низким уровнем навыков склонны к чрезмерной самоуверенности, а те, кто обладает высокой компетенцией, зачастую недооценивают свои способности. Этот эффект проявляется во многих сферах — от оценки знаний и навыков до принятия решений и критического мышления.

Даннинга-Крюгер эффект и его влияние на самопредставление
Основываясь на тестах логического мышления, внимательности, принятия решений и языковых задач, психологи выявили, что те, кто демонстрирует низкую эффективность в выполнении заданий, часто ошибочно оценивают свои возможности как очень высокие. В то же время, наиболее компетентные участники склонны недооценивать свои достижения. Этот дисбаланс способствует распространению ложных представлений о собственных способностях, что негативно сказывается на обучении, профессиональной деятельности и личностном развитии.
Новое исследование: роль ИИ в искажении оценки своих навыков
Но недавно ученые из Финляндии, сотрудничая с коллегами из Германии и Канады, поставили под вопрос привычные представления о влиянии ИИ на восприятие собственных возможностей. Их эксперимент показал, что использование искусственного интеллекта (ИИ) практически полностью нивелирует — а в некоторых случаях и обращает вспять — эффект Даннинга-Крюгера.
В рамках исследования участники решали логические задачи, взятые из Экзаменационного теста в юридическую школу. Их разбили на две группы: одна пользовалась популярным чатботом ChatGPT для поиска решений, а другая работала без помощи ИИ. После выполнения заданий участников просили оценить свою работу и предположить, насколько хорошо они справились. За точность самопроценки участников обещали дополнительные денежные вознаграждения — в случае правильной оценки своей деятельности.
Когнитивное «отдачи» и «поверхностное мышление»
Результаты оказались удивительными: независимо от уровня навыков, все участники проявляли склонность к чрезмерному доверию к ответам ИИ. Особенно ярко это проявлялось у тех, кто более активно взаимодействовал с чатботом: они делали меньше проверочных шагов, принимали ответы сразу же после одного-двух запросов и реже оценивали качество результатов.
Это явление специалисты называют «когнитивной отдачей» — когда человек при использовании ИИ сокращает собственное участие в процессе анализа, доверяя автоматическим ответам без дополнительной проверки. В результате снижается уровень метакогнитивного мониторинга — способности к саморефлексии и критической оценке собственной работы.
Обратная сторона использования ИИ — переоценка своих возможностей
Одним из наиболее неожиданных выводов исследования стало то, что использование ИИ способствует не только снижению различий в оценках между высоко- и низкоквалифицированными пользователями, но и значительному росту общего уровня переоценки собственных способностей. То есть даже самые «сильные» пользователи, чаще всего уверенные в своих знаниях, начинают считать себя еще более компетентными, чем есть на самом деле. Этот эффект «заслоняет» объективную оценку собственных навыков и, по сути, способствует развитию некритического отношения к предоставляемой информации.
Что происходит на практике?
Финские ученые объясняют эти результаты тем, что ИИ способствует формированию так называемой «поверхностной обработки информации». Пользователи, получая быстрый и зачастую очень хороший ответ, склонны принимать его без дополнительных размышлений и проверки. В результате полностью исключается этап критического анализа, который необходим для объективной оценки. Этот процесс называется «метакогнитивным контролем» — умением отслеживать собственное понимание и знания.
При этом, по мере развития технологий и появления все более мощных языковых моделей (large language models, LLM), users начинают ощущать себя более компетентными, что, в свою очередь, подкрепляется их успешным взаимодействием с ИИ. Однако уровень их реальных знаний и навыков зачастую остается на прежнем уровне или даже ухудшается — ведь в условиях автоматизации собственное обучение сходит на нет, а способность к критическому мышлению снижается.
Научные данные и реальные кейсы
В рамках эксперимента в США, Канаде и Финляндии было привлечено около 500 добровольцев. Каждый из них решал задачи, аналогичные логическим тестам, и оценивал свои результаты. В результате, участники, использующие ChatGPT или аналогичные системы, удостоверждались в своей высокой компетентности — даже если их эффективность в реальности была значительно ниже. Особенно ярко это выражается у тех, кто активно использует ИИ: они чаще делают вывод о своей превосходной подготовке и склонны считать, что «умеют всё».
Исследование также продемонстрировало, что с ростом опыта работы с ИИ уровень переоценки своих возможностей увеличивается, что подтверждает опасения о потенциальных рисках автоматизации. Например, врачи, полагаясь на ИИ-диагностику, могут недооценивать собственное клиническое чутье, а инженеры — чрезмерно доверять автоматическим алгоритмам, не проверяя их выводы.
Потенциальные риски и рекомендации
Авторы исследования предупреждают, что данный тренд создает риск ухудшения метакогнитивных навыков, необходимых для качественного обучения, профессионального роста и принятия решений. Чем больше мы полагаемся на автоматизированные системы, тем ниже становится критическая восприимчивость к ошибкам и собственным слабым сторонам.
Для борьбы с этим ученые рекомендуют интегрировать в дизайн ИИ-систем функции, стимулирующие критическое мышление. Например, модели могут задавать вопросы типа: «Насколько вы уверены в этом ответе?», «Что вы могли пропустить?», или предлагать оценки собственной уверенности в виде баллов или шкал. Такой подход поможет пользователям развивать навыки самоконтроля и избегать чрезмерной уверенности в конечных результатах.
Заключение
Современные исследования подтверждают, что при постоянном использовании ИИ происходит не только повышение эффективности выполнения задач, но и значительная трансформация восприятия собственных знаний. Мы можем оказаться на пороге формирования общества с искаженным самовосприятием, где переоценка своих навыков станет нормой — и это опасно для личностного развития и прогресса в целом.
В свете этих данных важно помнить: технологии должны служить инструментом развития, а не заменой критического мышления. Только сочетание автоматизации и осознанного анализа способно обеспечить устойчивый прогресс и развитие навыков, необходимых человеку в современном мире.