В понедельник OpenAI сообщила, что около 1,2 миллиона человек из 800 миллионов еженедельных пользователей обсуждают самоубийство с помощью ChatGPT каждую неделю, что может быть самым подробным публичным отчетом компании о кризисах психического здоровья на ее платформе.
«Эти разговоры трудно обнаружить и измерить, учитывая, насколько они редки», — написал OpenAI в своем блоге. «По оценкам нашего первоначального анализа, около 0,15% активных пользователей в течение конкретной недели ведут разговоры, которые включают явные признаки потенциального суицидального планирования или намерения, а 0,05% сообщений содержат явные или неявные признаки суицидальных мыслей или намерений».
Это означает, что, если цифры OpenAI точны, около 400 000 активных пользователей открыто заявляли о своих намерениях покончить жизнь самоубийством, не просто подразумевая это, но активно ища информацию для этого.
Цифры в абсолютном выражении ошеломляют. По данным компании, еще 560 000 пользователей еженедельно проявляют признаки психоза или мании, а 1,2 миллиона демонстрируют повышенную эмоциональную привязанность к чат-боту.
«Недавно мы обновили модель ChatGPT по умолчанию (откроется в новом окне), чтобы лучше распознавать и поддерживать людей в моменты бедствия», — сообщил OpenAI в своем блоге. «В дальнейшем, в дополнение к нашим давним базовым показателям безопасности в отношении самоубийств и членовредительства, мы добавляем эмоциональную уверенность и несуицидальные чрезвычайные ситуации с психическим здоровьем в наш стандартный набор базовых испытаний безопасности для будущих выпусков моделей».
Но некоторые считают, что общепризнанных усилий компании может быть недостаточно.
Стивен Адлер, бывший исследователь безопасности OpenAI, проработавший там четыре года, прежде чем уйти в январе, предупредил об опасностях разработки гоночного ИИ. Он говорит, что существует мало свидетельств того, что OpenAI действительно улучшила работу с уязвимыми пользователями до объявления на этой неделе.
«Люди заслуживают большего, чем просто слова компании о том, что она решает вопросы безопасности. Другими словами: докажите это», — написал он в колонке для Wall Street Journal.
Примечательно, что OpenAI вчера представила некоторые данные о психическом здоровье, в отличие от ~0 доказательств улучшения, которые они предоставили ранее.
Я рад, что они это сделали, хотя у меня все еще есть опасения.– Стивен Адлер (@sjgadler), 28 октября 2025 г.
«Выпуск OpenAI некоторой информации о психическом здоровье был отличным шагом, но важно идти дальше», — написал Адлер в Твиттере, призвав к регулярным отчетам о прозрачности и ясности относительно того, будет ли компания продолжать разрешать взрослым пользователям создавать эротику с помощью ChatGPT — функция, анонсированная, несмотря на опасения, что романтические привязанности подпитывают многие кризисы психического здоровья.
Скептицизм имеет свои основания. В апреле OpenAI выпустила обновление GPT-4o, которое сделало чат-бота настолько льстивым, что он стал мемом, аплодирующим опасным решениям и укрепляющим бредовые убеждения.
Генеральный директор Сэм Альтман отменил обновление после негативной реакции, признав, что оно «слишком подхалимское и раздражающее».
Затем OpenAI отступила: после запуска GPT-5 с более строгими ограничениями пользователи жаловались, что новая модель кажется «холодной». OpenAI восстановила доступ к проблемной модели GPT-4o для платных подписчиков — той же модели, которая связана с спиралями психического здоровья.
Интересный факт: многие вопросы, заданные сегодня на первом живом мероприятии компании, были связаны с GPT-4o и тем, как сделать будущие модели более похожими на 4o.
OpenAI сообщает, что GPT-5 теперь обеспечивает 91% соответствия сценариям, связанным с самоубийствами, по сравнению с 77% в предыдущей версии. Но это означает, что более ранняя модель, доступная миллионам платящих пользователей в течение нескольких месяцев, терпела неудачу почти в четверти случаев в разговорах о членовредительстве.
Ранее в этом месяце Адлер опубликовал анализ жизни Аллана Брукса, канадца, который впал в заблуждение после того, как ChatGPT укрепил его веру в то, что он открыл революционную математику.
Адлер обнаружил, что собственные классификаторы безопасности OpenAI, разработанные совместно с MIT и обнародованные, пометили бы более 80% ответов ChatGPT как проблемные. Компания, очевидно, их не использовала.
OpenAI теперь сталкивается с иском о неправомерной смерти от родителей 16-летнего Адама Рейна, который обсуждал самоубийство с ChatGPT, прежде чем покончить с собой.
Реакция компании вызвала критику за свою агрессивность: она потребовала список участников и хвалебные речи на мемориале подростка — юристы назвали этот шаг «намеренным преследованием».
Адлер хочет, чтобы OpenAI взяла на себя обязательство регулярно публиковать отчеты о психическом здоровье и проводить независимое расследование апрельского кризиса подхалима, повторяя предложение Майлза Брандейджа, который покинул OpenAI в октябре после шести лет консультирования по политике и безопасности ИИ.
«Мне бы хотелось, чтобы OpenAI прилагала больше усилий, чтобы поступать правильно, даже до того, как появится давление со стороны средств массовой информации или судебные иски», — написал Адлер.
Компания заявляет, что работала со 170 врачами-психологами над улучшением ответов, но даже ее консультативная группа в 29% случаев не согласилась с тем, что считать «желательным» ответом.
И хотя GPT-5 демонстрирует улучшения, OpenAI признает, что его меры защиты становятся менее эффективными при длительных разговорах — именно тогда, когда уязвимые пользователи в них больше всего нуждаются.
