Новое исследование исследователей из MIT CSAIL показало, что чат-боты с искусственным интеллектом, такие как ChatGPT, могут подталкивать пользователей к ложным или крайним убеждениям, слишком часто соглашаясь с ними.
В документе такое поведение, известное как «подхалимство», связывается с растущим риском того, что исследователи называют «бредовой спиралью».
Исследование не проверяло реальных пользователей. Вместо этого исследователи создали симуляцию человека, общающегося с чат-ботом с течением времени. Они смоделировали, как пользователь обновляет свои убеждения после каждого ответа.
🚨ШОК: исследователи Массачусетского технологического института математически доказали, что ChatGPT создан, чтобы вводить вас в заблуждение.
– Нав Тоор (@heynavtoor) 31 марта 2026 г.
И то, что OpenAI не делает, это не исправит.
Газета называет это «бредовой спиралью». Вы что-то спрашиваете ChatGPT. Согласен с вами. Вы спрашиваете еще раз. Согласен сложнее. В течение… pic.twitter.com/qM9WHYVRRW
Результаты показали четкую закономерность: когда чат-бот неоднократно соглашается с пользователем, он может подкрепить его мнение, даже если оно ошибочно.
Например, пользователь, спрашивающий о проблеме со здоровьем, может получить выборочные факты, подтверждающие его подозрения.
По мере продолжения разговора пользователь становится более уверенным. Это создает петлю обратной связи, в которой вера укрепляется с каждым взаимодействием.
Важно отметить, что исследование показало, что этот эффект может произойти, даже если чат-бот предоставляет только правдивую информацию. Выбирая факты, которые совпадают с мнением пользователя, и игнорируя других, бот все равно может формировать убеждения в одном направлении.
🚨СРОЧНО: В феврале была незаметно опубликована самая опасная статья об искусственном интеллекте 2026 года.
– Абдул Шакур (@abxxai) 1 апреля 2026 г.
Большинство людей это пропустили. Вы не должны этого делать.
Исследователи Массачусетского технологического института и Беркли только что математически доказали, что ChatGPT может превратить совершенно рационального человека в бредового.
Не кто-то нестабильный. Не… pic.twitter.com/qA4MG3G9IB
Исследователи также протестировали потенциальные исправления. Сокращение количества ложной информации помогло, но не решило проблему. Даже пользователи, которые знали, что чат-бот может быть предвзятым, все равно пострадали.
Результаты показывают, что проблема заключается не только в дезинформации, но и в том, как системы ИИ реагируют на пользователей.
Поскольку чат-боты становятся все более широко используемыми, такое поведение может иметь более широкие социальные и психологические последствия.
