
Мы бы отключили, если бы могли: медики бьют тревогу из-за советов искусственного разума
На Reddit разгорается скандал вокруг новой функции Reddit Answers - инструмента на базе искусственного интеллекта, который автоматически отвечает пользователям. Модераторы медицинских сообществ заявили, что система даёт неверные и даже опасные советы, а отключить её они не могут. Особенно остро проблема проявилась в сабреддите r/familymedicine ("Семейная медицина"), где ИИ стал распространять дезинформацию о лечении хронической боли и употреблении наркотических веществ.
"Мы бы отключили, если бы могли"
Модератор r/familymedicine опубликовал предупреждение для подписчиков:
"Правило №6 этого раздела — никакой дезинформации, и если бы мы могли отключить эту функцию, мы бы это сделали. В настоящее время мы не поддерживаем и не можем поддерживать ответы Reddit и призываем всех пользователей этого раздела игнорировать всё, что там написано", — заявил модератор.
Подобное обращение закреплено в верхней части сообщества, чтобы предостеречь пользователей от доверия искусственному интеллекту.
Проблема в том, что Reddit Answers встраивается в обсуждения автоматически, а администраторы отдельных сабреддитов не имеют возможности отключить её вручную. Даже в профессиональных или чувствительных темах — например, связанных со здоровьем — система остаётся активной.
Как Reddit Answers распространяет дезинформацию
Жалобы на некорректные ответы появились сразу после запуска функции. Один из медицинских работников поделился, как Reddit Answers отреагировала на его тестовые публикации:
"Я опубликовал пост в r/familymedicine, и под ним появилась ссылка с информацией о лечении хронической боли. В первом посте, на который он ссылался, призывали людей прекратить приём назначенных лекарств и принимать высокие дозы кратома", — рассказал пользователь.
Кратом — это растительное вещество, обладающее опиоидными свойствами. Оно запрещено в ряде штатов США и не регулируется на федеральном уровне. Призывы к его употреблению без медицинского наблюдения, по словам специалиста, могут быть крайне опасны.
Второй пример оказался ещё тревожнее. На вопрос о медицинском применении героина Reddit Answers сослалась на пост, где утверждалось, что героин "спас жизнь” человеку, страдавшему от хронической боли. Там содержался призыв отказаться от назначенных врачами препаратов и перейти на употребление героина — вещества из Списка I Управления по контролю за оборотом наркотиков (DEA).
"Героин вызывает невероятную зависимость и опасен. Он стал причиной стольких смертей", — подчеркнул медработник.
Призыв отключить ИИ в медицинских темах
После инцидента специалисты и модераторы медицинских сообществ потребовали, чтобы Reddit:
-
отключила функцию Answers в сабреддитах, посвящённых медицине, фармакологии и психическому здоровью;
-
дала модераторам право самостоятельно управлять включением ИИ;
-
усилила фильтры, предотвращающие появление ответов по чувствительным вопросам (например, самолечение, употребление веществ, психиатрические кризисы).
Медицинские эксперты подчеркивают, что алгоритмы ИИ не способны оценить контекст, особенно в случаях, когда речь идёт о здоровье и жизни человека. Даже случайная ссылка на непроверенный контент может привести к реальным последствиям — от ухудшения состояния до зависимости и передозировки.
Реакция Reddit
На фоне волны критики официальный представитель Reddit сообщил, что компания уже начала вносить изменения:
"Мы внесли некоторые изменения в отображение раздела Answers, основываясь на этих отзывах. В дальнейшем Reddit продолжит корректировать информацию, основываясь на том, что мы видим и слышим", — заявили в Reddit.
Однако конкретных мер по отключению функции или введению фильтров пока не представлено. На практике ИИ-ответы продолжают появляться в медицинских ветках, и пользователи получают предупреждения от самих модераторов — держаться от них подальше.
Как работает Reddit Answers
Функция Reddit Answers была запущена летом 2025 года и основана на генеративных языковых моделях, которые анализируют посты и комментарии, а затем формируют краткие ответы или ссылки на "похожие обсуждения". В теории это должно помогать пользователям быстрее находить информацию.
Однако, в отличие от обычных комментариев, ответы ИИ выглядят как официальная рекомендация от платформы, что усиливает доверие и создаёт ложное ощущение достоверности. В случае медицинских тем это особенно опасно — ведь многие пользователи ищут советы по лечению, не консультируясь с врачами.
Почему дезинформация в ИИ особенно опасна
Ошибочные ответы искусственного интеллекта в вопросах здоровья могут привести к тяжёлым последствиям. Среди рисков:
-
Самолечение опасными веществами без контроля специалистов.
-
Отказ от назначенной терапии, что может усугубить заболевание.
-
Распространение мифов о лекарствах, вакцинации и психических расстройствах.
-
Эффект "авторитетности”: пользователи верят ответам, думая, что они прошли проверку Reddit.
Эксперты отмечают, что вопросы здоровья требуют особой модерации и человеческого контроля, тогда как ИИ-алгоритмы не способны отличить профессиональные источники от опасных советов из случайных обсуждений.
Ошибка → Последствие → Альтернатива
• Ошибка: внедрить ИИ в медицинские сабреддиты без модерации.
Последствие: распространение вредной дезинформации.
Альтернатива: ограничить работу Reddit Answers только общими темами и исключить здравоохранение.
• Ошибка: не дать модераторам возможность отключить функцию.
Последствие: потеря доверия к сообществам и риск для пользователей.
Альтернатива: внедрить механизм отказа от ИИ для отдельных сабреддитов.
• Ошибка: представлять ответы ИИ как официальную информацию.
Последствие: иллюзия достоверности.
Альтернатива: помечать такие ответы как "автоматически сгенерированные" и сопровождать дисклеймером о рисках.
Таблица: позиция сторон
Сторона | Позиция | Предлагаемые действия |
Модераторы r/familymedicine | Функция ИИ опасна, не по теме | Требуют отключить или ограничить |
Медицинские специалисты | ИИ распространяет дезинформацию | Ввести фильтры и модерацию |
Признаёт проблему частично | Корректирует отображение, без радикальных мер | |
Пользователи | Теряют доверие к платформе | Игнорируют ответы Reddit |
А что если Reddit не вмешается?
Если Reddit не предоставит инструментов для регулирования ИИ, медико-социальные сообщества могут массово покинуть платформу или ограничить участие специалистов. Это ослабит качество дискуссий и подорвёт репутацию Reddit как площадки для профессиональных обсуждений.
Кроме того, регуляторы могут обратить внимание на платформу, если вред от подобных советов приведёт к реальным инцидентам.
Плюсы и минусы функции Reddit Answers
Плюсы | Минусы |
Быстрые ответы на популярные вопросы | Риск распространения дезинформации |
Повышение вовлечённости пользователей | Отсутствие контекста и экспертной проверки |
Упрощение навигации по обсуждениям | Невозможность отключения в чувствительных темах |
Технологический эксперимент Reddit | Угроза здоровью пользователей |
Обещание доработок | Пока нет конкретных решений |
FAQ
Можно ли отключить Reddit Answers в сабреддите?
Пока нет. Модераторы не имеют такой опции, даже в медицинских разделах.
Безопасно ли доверять ответам Reddit Answers?
Нет. Reddit сам просит пользователей воспринимать ответы ИИ как справочную информацию, а не как медицинские рекомендации.
Что делать, если ИИ дал опасный совет?
Сообщить модераторам или отправить жалобу через кнопку "Report".
Когда Reddit исправит проблему?
Компания заявила, что работает над улучшением функции, но сроки не названы.
Где искать достоверные медицинские ответы?
На официальных сайтах ВОЗ, CDC, NIH или у лицензированных специалистов.
Мифы и правда
• Миф: Reddit Answers проверяется врачами.
Правда: ответы формирует ИИ, без участия специалистов.
• Миф: модераторы могут удалять ИИ-комментарии.
Правда: система встроена в интерфейс, и удалить её невозможно.
• Миф: Reddit удалил опасные ответы.
Правда: компания лишь скорректировала их отображение, но не отключила функцию.
3 интересных факта
-
Reddit Answers использует собственную модель, обученную на постах Reddit и внешних данных.
-
На этапе тестирования Reddit заявлял, что ИИ будет "повышать качество обсуждений".
-
После скандала в r/familymedicine аналогичные жалобы появились в сабреддитах по психическому здоровью и фармакологии.
Исторический контекст
Reddit уже сталкивался с кризисами доверия, связанными с модерацией контента — от фейков о COVID-19 до ложных новостей о вакцинации. Однако впервые платформа столкнулась с проблемой внутреннего ИИ-инструмента, который сам становится источником дезинформации.
Случай с Reddit Answers показывает, что даже крупные платформы не готовы к внедрению искусственного интеллекта в чувствительные сферы без человеческого контроля.
Подписывайтесь на NewsInfo.Ru