
OpenAI меняет подход: как ChatGPT становится деликатнее в вопросах психического здоровья
Компания OpenAI, разработчик популярного чат-бота ChatGPT, объявила о ряде изменений в его работе, направленных на повышение деликатности при обсуждении тем, связанных с психологическим состоянием пользователей. Как стало известно, разработчики признали, что многие воспринимают чат-бота как личного советника, а порой даже как психотерапевта или врача. При этом компания пока не планирует ограничивать подобное использование напрямую, однако внедряет меры предосторожности, чтобы избежать потенциально опасных ситуаций.
В OpenAI отмечают, что современные ИИ-системы, в отличие от прежних технологий, способны производить впечатление отзывчивого собеседника. Это особенно чувствуется для людей, находящихся в уязвимом состоянии. Компания указала, что ответы ChatGPT могут казаться "естественными" и "очеловеченными", из-за чего пользователь склонен доверять ему, как настоящему человеку. При этом в самих диалогах пока нет прямых уведомлений о том, что чат-бот не является медицинским или юридическим консультантом. Единственное предупреждение — сдержанная фраза в конце чата о возможных ошибках и необходимости перепроверки информации.
В опубликованном 4 августа 2025 года отчёте команда OpenAI заявила, что продолжает развивать ChatGPT "для поддержки пользователей в трудные моменты". В частности, реализованы напоминания о необходимости делать паузы, а также создаются советы, направленные на улучшение качества жизни. Всё это, по утверждению разработчиков, делается под руководством профессионалов.
Одним из основных изменений стала корректировка подхода к сложным вопросам. В компании считают, что даже если пользователь ошибочно воспринимает ИИ как мыслящего собеседника, важно, чтобы ответы не звучали категорично. Так, например, если в чате появляется вопрос вроде "стоит ли мне расстаться с партнёром?", система теперь должна избегать прямых "да" или "нет". Вместо этого ChatGPT будет помогать пользователю обдумывать ситуацию, взвешивая плюсы и минусы, и направлять к самостоятельному решению.
OpenAI также внедрила систему уведомлений, предлагающих сделать перерыв, если пользователь слишком долго ведёт разговор — это делается, чтобы переключить внимание и снизить эмоциональное напряжение.
Особое внимание уделяется вопросам психического здоровья. Компания уточнила, что сотрудничала с 90 специалистами из более чем 30 стран — среди них были психиатры, педиатры и терапевты. Они помогли адаптировать язык ИИ и определить безопасные формулировки. ChatGPT теперь умеет реагировать на потенциально опасные сигналы — например, если пользователь упоминает мысли о самоубийстве, бот мягко напоминает о доступной экстренной помощи: телефоны доверия, близкие люди, специализированные службы.
Разработчики подчёркивают, что новая политика OpenAI базируется на "новейших исследованиях и передовой практике". Помимо медиков, к проекту были привлечены эксперты в области взаимодействия человека и компьютера, специалисты по ментальному здоровью молодёжи и практикующие клиницисты. Именно они помогли создать алгоритмы, способные отслеживать тревожные поведенческие паттерны.
Некоторые нововведения уже запущены, включая окна с приглашением сделать паузу. Другие инструменты — особенно те, что касаются поддержки при принятии судьбоносных решений — появятся позже. Сроки их внедрения пока не уточняются.
Подписывайтесь на NewsInfo.Ru