
ИИ в науке стал умнее, а доверия к нему — меньше: что пошло не так
Академический издатель Wiley опубликовал предварительный отчёт о влиянии технологий на науку за 2025 год, и его результаты стали неожиданными: доверие исследователей к искусственному интеллекту снизилось, несмотря на то что ИИ стал мощнее и чаще используется в научной работе.
Парадокс, по сути, в том, что чем лучше учёные понимают работу алгоритмов, тем меньше им верят.
"Чем больше исследователи узнают о внутренних механизмах ИИ, тем критичнее оценивают его результаты", — говорится в отчёте Wiley.
Меньше доверия — больше использования
По сравнению с прошлым годом, количество учёных, использующих ИИ в работе, выросло с 45% до 62%. Однако доля тех, кто сомневается в достоверности ответов, увеличилась ещё сильнее.
В 2024 году 51% опрошенных беспокоился о "галлюцинациях" — случаях, когда языковые модели выдают выдуманные факты. В 2025-м это число выросло до 64%, даже несмотря на улучшения архитектуры и расширение контекста у современных моделей.
Рост настороженности затронул и другие области:
• беспокойство о безопасности и конфиденциальности выросло на 11%;
• этические и прозрачные аспекты вызывают всё больше сомнений у исследователей;
• вера в то, что ИИ уже "превосходит человека" в половине задач, упала с 52% до менее 30%.
Эти результаты демонстрируют не разочарование в технологии, а скорее переход от эйфории к прагматизму.
Почему доверие снижается
Wiley отмечает, что падение доверия объясняется осознанием границ возможностей ИИ. Чем глубже исследователи вникают в принципы работы больших языковых моделей, тем лучше понимают их склонность к ошибкам и выдумке.
Кроме того, учёные всё чаще сталкиваются с практическими примерами, когда галлюцинации ИИ приводят к серьёзным последствиям.
"Ошибки искусственного интеллекта уже вызывали реальные проблемы — от судебных исков до медицинских просчётов", — отмечают авторы отчёта.
В мае 2025 года независимое тестирование показало, что некоторые новые модели ИИ стали "галлюцинировать" чаще, даже несмотря на рост мощности и объёма данных. Причина — усложнение внутренних зависимостей между параметрами и неадекватная обратная связь с пользователями.
Когда уверенность оборачивается проблемой
Одним из центральных вопросов исследования Wiley стал феномен "уверенного обмана" - ситуация, когда ИИ выдаёт ложные сведения с высокой степенью уверенности. Парадокс в том, что пользователи склонны больше доверять модели, которая уверенно ошибается, чем той, которая признаёт отсутствие данных.
Многие компании не спешат полностью решать эту проблему. Как объясняют эксперты, честные модели кажутся пользователям "менее умными" и вызывают разочарование. Поэтому устранение галлюцинаций может ударить по популярности сервисов.
"Пользователи предпочитают уверенные ответы даже тогда, когда они неверны", — отмечают аналитики Wiley.
Это создаёт этический конфликт между точностью и коммерческим успехом, особенно для таких компаний, как OpenAI, где миллионы пользователей ожидают мгновенных, уверенных ответов.
Сравнение доверия к ИИ в 2024 и 2025 годах
Показатель | 2024 год | 2025 год | Изменение |
Использование ИИ в научной работе | 45% | 62% | +17% |
Беспокойство о "галлюцинациях" | 51% | 64% | +13% |
Опасения по безопасности и конфиденциальности | 42% | 53% | +11% |
Вера в превосходство ИИ над человеком | 52% | 29% | -23% |
Позитивное отношение к ИИ | 68% | 54% | -14% |
Как видно, доверие падает, но применение растёт. Учёные всё чаще рассматривают ИИ как инструмент, требующий постоянного контроля, а не как "умного помощника".
Советы шаг за шагом: как использовать ИИ безопасно в науке
-
Проверяйте источники. Любая информация, сгенерированная моделью, должна иметь подтверждение в научной литературе.
-
Не используйте ИИ для критических решений. Модели могут ошибаться в числах, цитатах и ссылках.
-
Фильтруйте конфиденциальные данные. Избегайте ввода личной или неопубликованной информации.
-
Формулируйте промпты чётко. Чем точнее вопрос, тем меньше вероятность галлюцинации.
-
Объединяйте ИИ и экспертный анализ. Проверка человеком остаётся обязательным элементом любой работы.
Ошибка → Последствие → Альтернатива
-
Ошибка: доверять ответу ИИ без проверки.
Последствие: распространение ложных данных.
Альтернатива: сверять результаты с рецензируемыми источниками. -
Ошибка: делиться через ИИ неопубликованными результатами.
Последствие: риск утечки интеллектуальной собственности.
Альтернатива: использовать локальные модели с защитой данных. -
Ошибка: полагаться на ИИ при формировании гипотез без анализа.
Последствие: смещение выводов.
Альтернатива: использовать ИИ как инструмент поиска, а не источник истины.
А что если доверие продолжит падать?
Если тенденция сохранится, научное сообщество может перейти от интеграции ИИ в исследования к регулируемому и избирательному использованию. В будущем это может привести к появлению "научных стандартов прозрачности ИИ", где каждая модель обязана раскрывать источники и вероятность ошибок.
В то же время рост критичности может способствовать улучшению качества ИИ - компании будут вынуждены разрабатывать более надёжные системы, которые не просто убеждают, а действительно доказывают свои ответы.
Плюсы и минусы распространения ИИ в науке
Плюсы | Минусы |
Ускоряет обработку данных и анализ | Повышает риск ошибок и фальсификаций |
Помогает в рецензировании и переводах | Создаёт зависимость от алгоритмов |
Повышает доступность научной информации | Угрожает конфиденциальности исследований |
Способствует междисциплинарным связям | Усложняет проверку источников |
Стимулирует развитие новых методологий | Порождает этические конфликты |
FAQ
Почему доверие к ИИ падает, если технологии развиваются?
Потому что исследователи стали лучше понимать механизмы ошибок и ограничений моделей.
Можно ли полностью устранить "галлюцинации"?
Пока нет. Даже самые продвинутые модели выдают ложные сведения при неопределённости данных.
Какие направления науки чаще используют ИИ?
Наиболее активно — биоинформатика, материаловедение и аналитическая химия.
Мифы и правда
-
Миф: современные модели ИИ перестали галлюцинировать.
Правда: их точность выросла, но проблема не исчезла. -
Миф: доверие падает из-за плохих интерфейсов.
Правда: причины глубже — исследователи требуют прозрачности и доказательности. -
Миф: только гуманитарные учёные опасаются ИИ.
Правда: инженеры и физики демонстрируют схожие уровни скепсиса.
Исторический контекст
Интерес к искусственному интеллекту в академической среде резко вырос после 2023 года, когда большие языковые модели начали использовать для рецензирования статей и анализа данных. В 2024 году среди учёных преобладал энтузиазм: ИИ воспринимался как "революция в исследовательских процессах".
Однако уже к 2025 году ожидания столкнулись с реальностью — ошибки, неточности и вопросы конфиденциальности показали, что автоматизация без контроля несёт риски не меньше, чем выгоды.
Интересные факты
-
В отчёте Wiley участвовало более 12 тысяч исследователей из 42 стран.
-
Только 18% опрошенных заявили, что полностью доверяют выводам моделей.
-
74% респондентов хотят, чтобы журналы обязали авторов раскрывать, когда и как они использовали ИИ.
Подписывайтесь на NewsInfo.Ru