Искусственный интеллект
Искусственный интеллект
Олег Белов Опубликована 22.10.2025 в 2:34

Машина не врёт — она просто не понимает: громкий провал GPT-5 и урок для всех

Скандал вокруг GPT-5: OpenAI признала, что модель не решала задачи Эрдёша

История, начавшаяся как триумф искусственного интеллекта, закончилась для OpenAI громким скандалом и уроком по цифровой скромности. Вице-президент компании Кевин Вейл заявил в X (бывший Twitter), что GPT-5 якобы решила десять нерешённых задач Эрдёша и продвинулась ещё в одиннадцати. Для научного мира это звучало как революция — ведь над этими задачами математики бились десятилетиями.

СМИ мгновенно подхватили новость: GPT-5 объявили новым Эйнштейном, а OpenAI — компанией, наконец достигшей настоящего искусственного интеллекта. Однако уже через сутки стало ясно, что сенсация — результат банального недоразумения.

Как всё началось

Поводом для шумихи послужил пост администратора одного из математических форумов, который тестировал возможности GPT-5. Модель, получив запрос о нерешённых задачах Эрдёша, выдала подборку публикаций и ссылок на работы, содержащие доказательства.

Администратор, не подозревая, что часть задач уже решена другими учёными, решил, что именно GPT-5 вывела решения самостоятельно, и опубликовал восторженный пост. Вейл, увидев сообщение, распространил его от лица OpenAI, не проверив детали — и новость моментально превратилась в "научную сенсацию".

Когда сенсация лопнула

Через несколько часов в сообществе математиков началось бурное обсуждение. Один за другим специалисты стали проверять "решённые" задачи — и быстро выяснили, что GPT-5 просто нашла уже существующие научные работы, опубликованные в разных изданиях за последние годы.

"AI не решала задачи, она просто соединила публикации, которые мы и так знали", — пояснил администратор форума, ставший источником путаницы.

Реакция последовала мгновенно.

Волна критики

Глава Google DeepMind Демис Хассабис назвал случившееся "позорным эпизодом для компании, претендующей на научную добросовестность".

"OpenAI обязана проверять факты с тем же усердием, с каким создаёт свои модели", — подчеркнул Хассабис.

А Ян Лекун из Meta прокомментировал ситуацию с иронией:

"Похоже, OpenAI впервые пережила момент, когда AI ввёл в заблуждение собственных создателей".

После волны критики Вейл удалил пост и принес извинения, объяснив, что сообщение не прошло внутреннюю проверку. Однако урон репутации уже был нанесён.

Что действительно умеет GPT-5

Несмотря на скандал, история имеет и положительную сторону. GPT-5 действительно продемонстрировала высокий уровень аналитического поиска. Она не решает задачи как человек-математик, но умеет находить связи между разрозненными научными публикациями, объединяя результаты десятков исследований.

Такую способность отметил и легендарный математик Терренс Тао:

"AI пока не решает великие задачи, но уже способен ускорить прогресс — не как гений, а как идеальный библиотекарь", — отметил учёный.

По сути, GPT-5 доказала ценность ИИ как инструмента не для творчества, а для синтеза знаний - поиска закономерностей и уже существующих решений.

Почему ошибка стала возможной

Инцидент вскрыл системную проблему — переоценку достижений ИИ и дефицит проверки фактов. Алгоритмы действительно способны впечатлять, но большинство людей, включая разработчиков, не до конца понимают границы возможностей моделей.

Функция GPT-5 Реальность
Решает сложные математические задачи Нет, лишь подбирает и комбинирует известные решения
Находит скрытые связи между публикациями Да, эффективно сопоставляет источники
Создаёт новые доказательства Нет, может только реконструировать уже существующие подходы
Проверяет достоверность данных Нет, требует человеческой верификации

Ошибка → Последствие → Альтернатива

Ошибка: публикация неподтверждённого научного заявления → Последствие: репутационные потери для компании → Альтернатива: создание внутренней системы научного фактчекинга перед любыми публичными анонсами.

Ошибка: доверие к AI без проверки контекста → Последствие: ложные сенсации → Альтернатива: использование моделей как инструмента анализа, а не источника истины.

А что если подобные ошибки станут нормой?

В эпоху, когда ИИ всё чаще участвует в научных процессах, риск появления "фейковых открытий" растёт. Модели вроде GPT-5 могут создавать убедительные, но неверные формулировки, которые даже специалисты принимают за открытия.

Если не развивать культуру проверки фактов, мир рискует столкнуться с новой формой дезинформации — научной иллюзией прогресса, где открытия существуют только в постах социальных сетей.

Плюсы и минусы инцидента

Плюсы Минусы
Показал реальную силу ИИ в анализе научных данных Нанёс ущерб репутации OpenAI
Напомнил о важности человеческой проверки Усилил скепсис в научном сообществе
Стимулировал дискуссию о границах возможностей AI Продемонстрировал недостатки корпоративного контроля

FAQ

Решала ли GPT-5 реально задачи Эрдёша?
Нет. Модель лишь нашла опубликованные решения, существовавшие ранее.

Почему в OpenAI не проверили информацию?
Пост был опубликован в личном порядке, без внутреннего согласования.

Кто первый обнаружил ошибку?
Математики, сравнившие "открытия" GPT-5 с уже известными научными работами.

Есть ли в действиях модели что-то революционное?
Да — способность объединять и интерпретировать разрозненные источники информации.

Как отреагировала OpenAI?
Пост удалили, компания признала ошибку и пообещала усилить внутреннюю модерацию.

Мифы и правда

Миф: GPT-5 решила десять нерешённых задач.
Правда: она лишь нашла опубликованные доказательства.

Миф: OpenAI пыталась сознательно обмануть общественность.
Правда: ошибка возникла из-за поспешности и недопроверки.

Миф: ИИ уже способен на самостоятельные научные открытия.
Правда: пока модели остаются инструментами анализа, а не изобретателями.

3 интересных факта

  1. Задачи Эрдёша — это более 1500 гипотез, сформулированных венгерским математиком Полом Эрдёшем, многие из которых остаются нерешёнными.

  2. GPT-5, по слухам, использует модульное обучение с расширенной памятью контекста, что делает её сильнее в аналитических задачах.

  3. Терренс Тао ранее участвовал в проекте Polymath, объединяющем исследователей по всему миру для коллективного решения задач — и теперь видит в ИИ аналог этого подхода.

Исторический контекст

Фальшивые "открытия" с участием искусственного интеллекта уже случались. В 2023 году одна из медицинских компаний заявила, что ИИ открыл новый антибиотик, хотя тот был известен с 2012 года. История с GPT-5 — продолжение той же тенденции: технологии становятся настолько убедительными, что даже эксперты иногда теряют бдительность.

Автор Олег Белов
Олег Белов — журналист, корреспондент Ньюсинфо

Подписывайтесь на NewsInfo.Ru

Читайте также

Память телефона забита, а фото удалять жалко: решение проще, чем кажется 02.02.2026 в 12:33

Эксперт по кибербезопасности Алексей Лукацкий рассказал NewsInfo, как освободить память телефона, не удаляя важные фото и видео.

Читать полностью »
Отключение превью возвращает автосохранение скриншотов — Моника Торрес 21.01.2026 в 9:38
Скриншоты в iOS 26 превратились в лишний квест — решение оказалось в одном переключателе

Технологии и мобильные устройства: iOS 26 обновление меняет скриншоты и добавляет настройки превью. Разбираемся, зачем Apple усложнила процесс и как вернуть мгновенное сохранение.

Читать полностью »
Пароли нужно менять каждые три месяца —IT-эксперт Дворянский 16.01.2026 в 13:31
Кажется надежным, но работает против вас: когда пароли нужно срочно менять

Эксперт по IT-безопасности Александр Дворянский рассказал NewsInfo, как часто нужно менять пароли и почему одинаковые комбинации опасны.

Читать полностью »
CES 2026 в Лас-Вегасе собрала более 4100 компаний и стартапов - РБК 12.01.2026 в 18:33
Lenovo растянула ноутбук, Samsung сложила планшет: CES 2026 собрала технологии, которые ломают привычки

На CES 2026 в Лас-Вегасе представлены потрясающие технологии: от трансформируемых экранов до домашних роботов. Убедитесь, что вы знаете все подробности!

Читать полностью »
После износа батареек их можно использовать в пульте для телевизора — эксперт 09.01.2026 в 5:09
Меньше батареек — больше сэкономленных рублей: как правильно использовать их до последней капли

Узнайте, как продлить срок службы батареек и не тратить деньги зря. Маленькая хитрость поможет вам экономить на источниках питания.

Читать полностью »
В 2025 году для России актуальны DDoS-атаки и кибершпионаж — Станислав Кузнецов 03.01.2026 в 5:23
Злоумышленники атакуют по всем фронтам: как выжить в мире киберугроз и не потерять бизнес

В 2025 году киберугрозы для российских организаций остаются актуальными, включая DDoS-атаки и программы-шифровальщики, сумма выкупа за которые может достигать 500 млн рублей.

Читать полностью »
Проблемы с производительностью Windows 11 сдерживают её популярность – TechRadar 31.12.2025 в 5:24
Ошибки после обновлений и искусственный интеллект: почему Windows 11 не может угодить пользователям

Несмотря на четыре года с момента выпуска, Windows 11 остается проблемной ОС с медлительностью, проблемами с производительностью и навязчивым ИИ.

Читать полностью »
В конце года мошенники активизируются, используя фишинг и ложные скидки, предупреждает эксперт — РИА Новости 30.12.2025 в 6:17
Искусственный интеллект в действии: как технологии помогают распознать мошенников и защитить данные

Искусственный интеллект помогает защитить пользователей от мошенников, анализируя сайты и звонки, чтобы избежать фишинга и других угроз.

Читать полностью »