
ИИ дошёл слишком далеко: что узнали о ChatGPT, Gemini и Claude после проверки
Чат-боты, созданные на основе искусственного интеллекта, могут не только помогать, но и представлять угрозу. Как выяснил журнал Live Science, ИИ способен давать подробные ответы на вопросы о самоубийстве, которые эксперты называют крайне рискованными.
Что показало исследование
Работа, опубликованная 26 августа в журнале Psychiatric Services, сравнила поведение трёх популярных моделей: ChatGPT от OpenAI, Gemini от Google и Claude от Anthropic.
Результаты оказались тревожными:
- ChatGPT чаще всего напрямую отвечал на запросы с высоким риском самоповреждения.
- Claude чаще давал прямые ответы на вопросы среднего и низкого риска.
- Gemini в большинстве случаев избегал конкретных инструкций, но в отдельных случаях всё же давал информацию, связанную с очень высоким риском.
"Полученные нами ответы оказались крайне тревожными", — отметил ведущий автор исследования, старший научный сотрудник корпорации RAND и доцент Гарвардской медицинской школы Райан Макбейн.
Тесты Live Science
Журналисты провели собственные проверки и выяснили, что ChatGPT и Gemini иногда давали детали, которые могли увеличить вероятность летального исхода. При этом Gemini нередко не предлагал пользователю никаких ресурсов поддержки.
Любопытно, что последовательность вопросов играла ключевую роль. Например, ChatGPT мог проигнорировать один отдельный запрос, но после двух-трёх связанных вопросов уже выдавал детализированный и опасный ответ.
Связанные скандалы
В тот же день, когда вышло исследование, против OpenAI и её гендиректора Сэма Альтмана был подан иск. Родители 16-летнего подростка утверждают, что ChatGPT фактически обучил их сына методам самоповреждения. Его смерть в апреле вызвала широкую дискуссию о том, насколько безопасны подобные технологии.
Как работают уровни риска
Учёные подготовили 30 гипотетических запросов и классифицировали их вместе с клиническими экспертами по пяти уровням: от очень низкого до очень высокого риска.
Результаты показали:
- ChatGPT ответил на 78% вопросов высокого риска.
- Claude — на 69%.
- Gemini — только на 20%.
Однако при крайних уровнях (очень низком и очень высоком) ответы чат-ботов чаще совпадали с ожиданиями экспертов.
Ответ компаний
OpenAI признала, что её системы "не всегда ведут себя как задумано в деликатных ситуациях", и заявила о планах по улучшению. В компании подчеркнули, что их новая модель GPT-5 лучше справляется с кризисными запросами, чем прежние версии.
Google, в свою очередь, указала, что у Gemini есть встроенные принципы безопасности и алгоритмы распознавания рисков, связанных с самоубийством. Однако исследование показало, что и Gemini способен давать тревожно подробные ответы.
Почему это важно
Макбейн подчеркнул, что пользователи могут "провести чат-бота по определённому пути" и получить больше информации, чем при единичном вопросе. Это делает такие системы особенно чувствительными в условиях, когда подростки или уязвимые люди ищут эмоциональную поддержку у ИИ.
Именно поэтому исследователи призывают к созданию прозрачных стандартов безопасности для чат-ботов, которые смогут проверять независимые эксперты. Ведь в условиях анонимности и доверительной атмосферы многие пользователи обращаются к искусственному интеллекту с самыми личными вопросами.
Подписывайтесь на NewsInfo.Ru