
Пациент случайно увидел: его терапевт говорил голосом ChatGPT
MIT Technology Review опубликовал материал о том, как некоторые психотерапевты применяют ChatGPT для помощи в консультациях, не информируя об этом клиентов.
История Деклана
В центре рассказа — 31-летний Деклан (фамилия не раскрыта). Во время онлайн-сессии у его терапевта возникли проблемы со связью, и врач предложил отключить камеры. Однако случайно включил демонстрацию экрана.
На экране пациент увидел интерфейс ChatGPT, куда терапевт вводил подробности их разговора и использовал предложенные ИИ-ответы в диалоге.
-
Деклан признаётся, что был так ошарашен, что не стал ничего говорить во время сессии и даже начал "опережать" терапевта, повторяя формулировки ChatGPT как свои мысли.
-
На следующей встрече он всё же указал на ситуацию. Врач признал, что "зашёл в тупик" и решил обратиться за помощью к нейросети. После этого он отказался от оплаты сеанса.
Реакция и последствия
Ситуация оказалась неловкой, но она не уникальна. На Reddit встречаются сообщения пациентов, которые подозревали, что их терапевты используют ChatGPT во время консультаций.
Риски и правовые аспекты
-
Этический риск: пациент не знает, что его личные переживания анализирует ИИ, а значит, нарушается доверие к терапии.
-
Юридический риск: стандартные подписки ChatGPT не соответствуют требованиям HIPAA (американского закона о защите медицинской информации). Даже обезличенные данные при передаче в ИИ могут считаться нарушением, так как модель способна использовать их для обучения.
-
Исключение составляют только некоторые корпоративные варианты, специально сертифицированные для работы с медицинской информацией.
Контекст
Хотя использование нейросетей может показаться терапевтам удобным способом получить новые идеи или советы по ведению сложных случаев, эксперты предупреждают: подобная практика без согласия клиента может разрушить доверие к терапии и привести к юридическим последствиям.
Подписывайтесь на NewsInfo.Ru