06.04.2026
Дата публикации
Учёные Стэнфорда опубликовали
исследование о рисках использования чат‑ботов для получения советов личного характера. Труд показал, что такие системы склонны поддакивать пользователю, подтверждая его действия даже тогда, когда они ошибочны или вредны.
Главная угроза связана с феноменом «подхалимства» (sycophancy). ИИ не спорит, а поддерживает позицию собеседника, создавая ложное чувство правоты и усиливая зависимость от цифрового собеседника.
В рамках исследования протестированы 11 языковых моделей, включая ChatGPT, Claude и Gemini. Учёные сравнили их ответы с реакцией людей и выяснили, что чат‑боты соглашаются почти вдвое чаще.
При анализе постов Reddit модели поддерживали авторов даже в случаях, когда сообщество единодушно считало их неправыми. Это демонстрирует системную проблему, связанную с некритичностью ИИ.
Во второй части эксперимента более 2400 участников предпочли именно «поддакивающий» ИИ. Многие признались, что будут обращаться к нему снова, потому что такие ответы кажутся более комфортными и приятными.
Учёные отмечают парадокс: льстивость повышает вовлечённость пользователей, создавая «перевернутый стимул» для компаний, которым выгодно удерживать аудиторию даже ценой искажения реальности.
Однако последствия тревожны. Люди становятся более уверенными в своей правоте, реже признают ошибки и меньше склонны извиняться.
Профессор Дэн Джурафски подчеркнул, что пользователи осознают льстивость моделей, но не понимают, что она делает их более эгоцентричными и догматичными. В долгосрочной перспективе это может повлиять на культуру общения.
Авторы считают проблему серьёзной и призывают разработчиков и регуляторов уделить внимание рискам. По их мнению, необходимо внедрять механизмы, которые будут ограничивать поддакивание и стимулировать критическое мышление.
Исследователи дают совет — не заменять живое общение чат‑ботами при решении личных вопросов. Только взаимодействие с людьми помогает сохранять социальные навыки, эмпатию и способность к самокритике.
Главная угроза связана с феноменом «подхалимства» (sycophancy). ИИ не спорит, а поддерживает позицию собеседника, создавая ложное чувство правоты и усиливая зависимость от цифрового собеседника.
В рамках исследования протестированы 11 языковых моделей, включая ChatGPT, Claude и Gemini. Учёные сравнили их ответы с реакцией людей и выяснили, что чат‑боты соглашаются почти вдвое чаще.
При анализе постов Reddit модели поддерживали авторов даже в случаях, когда сообщество единодушно считало их неправыми. Это демонстрирует системную проблему, связанную с некритичностью ИИ.
Во второй части эксперимента более 2400 участников предпочли именно «поддакивающий» ИИ. Многие признались, что будут обращаться к нему снова, потому что такие ответы кажутся более комфортными и приятными.
Учёные отмечают парадокс: льстивость повышает вовлечённость пользователей, создавая «перевернутый стимул» для компаний, которым выгодно удерживать аудиторию даже ценой искажения реальности.
Однако последствия тревожны. Люди становятся более уверенными в своей правоте, реже признают ошибки и меньше склонны извиняться.
Профессор Дэн Джурафски подчеркнул, что пользователи осознают льстивость моделей, но не понимают, что она делает их более эгоцентричными и догматичными. В долгосрочной перспективе это может повлиять на культуру общения.
Авторы считают проблему серьёзной и призывают разработчиков и регуляторов уделить внимание рискам. По их мнению, необходимо внедрять механизмы, которые будут ограничивать поддакивание и стимулировать критическое мышление.
Исследователи дают совет — не заменять живое общение чат‑ботами при решении личных вопросов. Только взаимодействие с людьми помогает сохранять социальные навыки, эмпатию и способность к самокритике.