
ИИ вторгся в психику — что случается, когда вы доверяете ему свои чувства
Искусственный интеллект всё активнее входит в сферу психического здоровья. Онлайн-сервисы, поддерживаемые ИИ, уже предлагают пользователям эмоциональную поддержку, помощь в переосмыслении негативных мыслей и даже рекомендации по терапии. Но можно ли доверить свои переживания алгоритмам? Или перед нами — новый риск в эпоху цифрового благополучия?
ИИ может быть полезным инструментом в поддержке психического здоровья, но требует осознанного и ограниченного применения. Эксперты призывают относиться к нему как к дополнению, а не замене классической терапии.
Как ИИ может помочь?
Несмотря на отсутствие лицензии и клинического опыта, ИИ может оказывать поддержку при грамотном использовании. По словам Николаса С. Джейкобсона, профессора Дартмутской школы медицины, технологии с ИИ могут стать способом восполнить нехватку терапевтов, особенно в регионах с ограниченным доступом к психологической помощи.
Эдуардо Бунге, заместитель директора Международного института интернет-вмешательств в здоровье, подчёркивает, что ИИ способен оказывать помощь именно тогда, когда она особенно нужна. Он отметил, что мгновенная доступность может быть преимуществом даже для тех, кто уже проходит терапию: искусственный интеллект всегда "на связи", в отличие от живого специалиста.
Дополнительным плюсом, по мнению экспертов, становится возможность открыто говорить об интимных переживаниях без страха осуждения. Как утверждает Бунге, пользователи зачастую делятся с ИИ тем, о чём стесняются рассказать человеку.
Скрытые риски и ограничения
Однако специалисты напоминают: ИИ — не человек, и это определяет его пределы.
Александра Вернц из Центра научно обоснованного наставничества при Университете Массачусетса подчеркнула, что искусственный интеллект не способен заменить реальную заботу. Он может ошибаться, выдавать культурно предвзятые или просто вредные советы.
К числу рисков эксперты относят:
- Ненадёжные источники данных;
- Правдоподобно звучащие, но ошибочные советы;
- Отсутствие конфиденциальности — ИИ не регулируется законами, подобными HIPAA;
- Неспособность реагировать в экстренных ситуациях, таких как мысли о самоубийстве или симптомы психоза.
Джейкобсон также отметил, что генеративные модели, такие как ChatGPT, часто "ограничивают" обсуждение тем, требующих вмешательства специалиста — например, разговоров о самоубийстве. Хотя это может раздражать пользователей, в критических случаях такие меры спасают жизни.
5 способов безопасного применения ИИ для психологической поддержки
- Распознавание эмоций. ИИ поможет осознать, что с вами происходит, — но не поставит диагноз.
- Поиск методов лечения. Можно запросить данные о научно подтверждённых подходах к тревожности, депрессии и другим расстройствам.
- Ознакомление с видами терапии. ИИ расскажет, чего ожидать от сеансов, как работает ДПДГ или КПТ.
- Переосмысление негативных мыслей. С помощью алгоритма можно поработать над тревогами, сомнениями и чувством вины.
- Преодоление одиночества. Алгоритмы предлагают идеи для начала общения и адаптации в новом окружении — но не заменяют реальных отношений.
Когда ИИ неподходящая альтернатива:
- Страдаете от суицидальных мыслей;
- Имеете психотические симптомы;
- Находитесь в состоянии крайнего эмоционального кризиса;
- Столкнулись с расстройством пищевого поведения.
В подобных случаях нужна только помощь специалистов.
Будущее психотерапии: с ИИ, но не вместо человека
Исследования показывают обнадеживающие результаты. Так, в марте 2025 года команда Дартмута провела первое РКИ с участием терапевтического чат-бота Therabot, который показал эффективность при депрессии и тревожных расстройствах.
В перспективе — развитие ко-терапевтических решений, когда ИИ взаимодействует и с пациентом, и с психотерапевтом, помогая последнему лучше понимать динамику состояния между сеансами.
Тем не менее, как подчёркивают Джейкобсон и Вернц, ничто не заменит подлинной эмпатии живого человека. ИИ может быть партнёром — но не терапевтом.
Подписывайтесь на NewsInfo.Ru