Мужчина у компьютера
Мужчина у компьютера
Олег Белов Опубликована сегодня в 12:16

ИИ в науке стал умнее, а доверия к нему — меньше: что пошло не так

Wiley: число исследователей, использующих ИИ, выросло до 62%, но доверие к нему упало

Академический издатель Wiley опубликовал предварительный отчёт о влиянии технологий на науку за 2025 год, и его результаты стали неожиданными: доверие исследователей к искусственному интеллекту снизилось, несмотря на то что ИИ стал мощнее и чаще используется в научной работе.

Парадокс, по сути, в том, что чем лучше учёные понимают работу алгоритмов, тем меньше им верят.

"Чем больше исследователи узнают о внутренних механизмах ИИ, тем критичнее оценивают его результаты", — говорится в отчёте Wiley.

Меньше доверия — больше использования

По сравнению с прошлым годом, количество учёных, использующих ИИ в работе, выросло с 45% до 62%. Однако доля тех, кто сомневается в достоверности ответов, увеличилась ещё сильнее.

В 2024 году 51% опрошенных беспокоился о "галлюцинациях" — случаях, когда языковые модели выдают выдуманные факты. В 2025-м это число выросло до 64%, даже несмотря на улучшения архитектуры и расширение контекста у современных моделей.

Рост настороженности затронул и другие области:
беспокойство о безопасности и конфиденциальности выросло на 11%;
этические и прозрачные аспекты вызывают всё больше сомнений у исследователей;
• вера в то, что ИИ уже "превосходит человека" в половине задач, упала с 52% до менее 30%.

Эти результаты демонстрируют не разочарование в технологии, а скорее переход от эйфории к прагматизму.

Почему доверие снижается

Wiley отмечает, что падение доверия объясняется осознанием границ возможностей ИИ. Чем глубже исследователи вникают в принципы работы больших языковых моделей, тем лучше понимают их склонность к ошибкам и выдумке.

Кроме того, учёные всё чаще сталкиваются с практическими примерами, когда галлюцинации ИИ приводят к серьёзным последствиям.

"Ошибки искусственного интеллекта уже вызывали реальные проблемы — от судебных исков до медицинских просчётов", — отмечают авторы отчёта.

В мае 2025 года независимое тестирование показало, что некоторые новые модели ИИ стали "галлюцинировать" чаще, даже несмотря на рост мощности и объёма данных. Причина — усложнение внутренних зависимостей между параметрами и неадекватная обратная связь с пользователями.

Когда уверенность оборачивается проблемой

Одним из центральных вопросов исследования Wiley стал феномен "уверенного обмана" - ситуация, когда ИИ выдаёт ложные сведения с высокой степенью уверенности. Парадокс в том, что пользователи склонны больше доверять модели, которая уверенно ошибается, чем той, которая признаёт отсутствие данных.

Многие компании не спешат полностью решать эту проблему. Как объясняют эксперты, честные модели кажутся пользователям "менее умными" и вызывают разочарование. Поэтому устранение галлюцинаций может ударить по популярности сервисов.

"Пользователи предпочитают уверенные ответы даже тогда, когда они неверны", — отмечают аналитики Wiley.

Это создаёт этический конфликт между точностью и коммерческим успехом, особенно для таких компаний, как OpenAI, где миллионы пользователей ожидают мгновенных, уверенных ответов.

Сравнение доверия к ИИ в 2024 и 2025 годах

Показатель 2024 год 2025 год Изменение
Использование ИИ в научной работе 45% 62% +17%
Беспокойство о "галлюцинациях" 51% 64% +13%
Опасения по безопасности и конфиденциальности 42% 53% +11%
Вера в превосходство ИИ над человеком 52% 29% -23%
Позитивное отношение к ИИ 68% 54% -14%

Как видно, доверие падает, но применение растёт. Учёные всё чаще рассматривают ИИ как инструмент, требующий постоянного контроля, а не как "умного помощника".

Советы шаг за шагом: как использовать ИИ безопасно в науке

  1. Проверяйте источники. Любая информация, сгенерированная моделью, должна иметь подтверждение в научной литературе.

  2. Не используйте ИИ для критических решений. Модели могут ошибаться в числах, цитатах и ссылках.

  3. Фильтруйте конфиденциальные данные. Избегайте ввода личной или неопубликованной информации.

  4. Формулируйте промпты чётко. Чем точнее вопрос, тем меньше вероятность галлюцинации.

  5. Объединяйте ИИ и экспертный анализ. Проверка человеком остаётся обязательным элементом любой работы.

Ошибка → Последствие → Альтернатива

  • Ошибка: доверять ответу ИИ без проверки.
    Последствие: распространение ложных данных.
    Альтернатива: сверять результаты с рецензируемыми источниками.

  • Ошибка: делиться через ИИ неопубликованными результатами.
    Последствие: риск утечки интеллектуальной собственности.
    Альтернатива: использовать локальные модели с защитой данных.

  • Ошибка: полагаться на ИИ при формировании гипотез без анализа.
    Последствие: смещение выводов.
    Альтернатива: использовать ИИ как инструмент поиска, а не источник истины.

А что если доверие продолжит падать?

Если тенденция сохранится, научное сообщество может перейти от интеграции ИИ в исследования к регулируемому и избирательному использованию. В будущем это может привести к появлению "научных стандартов прозрачности ИИ", где каждая модель обязана раскрывать источники и вероятность ошибок.

В то же время рост критичности может способствовать улучшению качества ИИ - компании будут вынуждены разрабатывать более надёжные системы, которые не просто убеждают, а действительно доказывают свои ответы.

Плюсы и минусы распространения ИИ в науке

Плюсы Минусы
Ускоряет обработку данных и анализ Повышает риск ошибок и фальсификаций
Помогает в рецензировании и переводах Создаёт зависимость от алгоритмов
Повышает доступность научной информации Угрожает конфиденциальности исследований
Способствует междисциплинарным связям Усложняет проверку источников
Стимулирует развитие новых методологий Порождает этические конфликты

FAQ

Почему доверие к ИИ падает, если технологии развиваются?
Потому что исследователи стали лучше понимать механизмы ошибок и ограничений моделей.

Можно ли полностью устранить "галлюцинации"?
Пока нет. Даже самые продвинутые модели выдают ложные сведения при неопределённости данных.

Какие направления науки чаще используют ИИ?
Наиболее активно — биоинформатика, материаловедение и аналитическая химия.

Мифы и правда

  • Миф: современные модели ИИ перестали галлюцинировать.
    Правда: их точность выросла, но проблема не исчезла.

  • Миф: доверие падает из-за плохих интерфейсов.
    Правда: причины глубже — исследователи требуют прозрачности и доказательности.

  • Миф: только гуманитарные учёные опасаются ИИ.
    Правда: инженеры и физики демонстрируют схожие уровни скепсиса.

Исторический контекст

Интерес к искусственному интеллекту в академической среде резко вырос после 2023 года, когда большие языковые модели начали использовать для рецензирования статей и анализа данных. В 2024 году среди учёных преобладал энтузиазм: ИИ воспринимался как "революция в исследовательских процессах".
Однако уже к 2025 году ожидания столкнулись с реальностью — ошибки, неточности и вопросы конфиденциальности показали, что автоматизация без контроля несёт риски не меньше, чем выгоды.

Интересные факты

  1. В отчёте Wiley участвовало более 12 тысяч исследователей из 42 стран.

  2. Только 18% опрошенных заявили, что полностью доверяют выводам моделей.

  3. 74% респондентов хотят, чтобы журналы обязали авторов раскрывать, когда и как они использовали ИИ.

Подписывайтесь на NewsInfo.Ru

Читайте также

Reddit обсуждает невидимые метки SynthID в картинках, сгенерированных Gemini сегодня в 13:16
Цвета говорят больше, чем кажется: изображения от ИИ выдают себя при одном фильтре

Пользователи Reddit обнаружили скрытые водяные знаки в изображениях, созданных Gemini. Они становятся видимыми при повышении насыщенности — вероятно, это следы технологии SynthID.

Читать полностью »
Новая модель MAI-Image-1 от Microsoft вошла в топ-10 визуальных AI-систем на LMArena сегодня в 4:46
Не рисует, а светом пишет: Microsoft выпустила нейросеть, которая пугающе хорошо видит мир

Microsoft представила MAI-Image-1 — собственный генератор изображений, который уже вошёл в топ-10 лучших моделей. Узнай, чем он отличается от конкурентов.

Читать полностью »
Минцифры запустило на сегодня в 3:46
Вход только по любви и доверию: как один человек может спасти твой аккаунт от взлома

На «Госуслугах» появилась функция доверенного контакта, которая поможет защитить аккаунт от взлома. Теперь смена пароля невозможна без участия выбранного близкого человека.

Читать полностью »
OpenAI и Broadcom создадут собственные AI-чипы для снижения зависимости от Nvidia сегодня в 2:26
Чип или погибни: как OpenAI спасает себя от дефицита и диктует новое будущее ИИ

OpenAI и Broadcom запускают амбициозный проект по созданию собственных чипов искусственного интеллекта. Это шаг к независимости от Nvidia и фундамент для будущего сверхинтеллекта.

Читать полностью »
Калифорния установила правила для AI-компаньонов: возрастная проверка и штрафы до $250 000 сегодня в 1:17
Говоришь с ботом — сначала покажи паспорт: новые законы бьют по AI-компаньонам

Калифорния первой в США узаконила правила общения с чат-ботами. Теперь даже искусственный интеллект обязан соблюдать границы и заботиться о безопасности собеседника.

Читать полностью »
Российские вузы сохранили позиции в мировом рейтинге THE 2025 — лидирует МГУ сегодня в 0:12
Ты не лузер, если не в Оксфорде: где действительно учат так, чтобы не жалеть потом

Мировой рейтинг университетов от Times Higher Education вновь подтвердил лидерство США и Великобритании. Но главная интрига — кто действительно улучшил свои позиции, а кто застыл на месте.

Читать полностью »
OpenAI перестаёт сохранять логи ChatGPT после судебного давления со стороны The New York Times вчера в 23:26
Суд, СМИ и скандалы: почему OpenAI перестаёт хранить ваши старые чаты

OpenAI прекращает сохранять удалённые чаты ChatGPT. После судебного давления компания меняет подход к хранению данных, возвращая пользователям контроль над приватностью.

Читать полностью »
Graphite: доля ИИ-контента в интернете в 2025 году достигла 52% вчера в 22:36
Человек устал, нейросеть не спит: кто теперь пишет новости за людей

ИИ уже создает половину интернет-статей. Но почему Google всё ещё предпочитает тексты, написанные людьми, и как найти баланс между скоростью и качеством?

Читать полностью »