Искусственный интеллект
Искусственный интеллект
Олег Белов Опубликована 22.10.2025 в 2:34

Машина не врёт — она просто не понимает: громкий провал GPT-5 и урок для всех

Скандал вокруг GPT-5: OpenAI признала, что модель не решала задачи Эрдёша

История, начавшаяся как триумф искусственного интеллекта, закончилась для OpenAI громким скандалом и уроком по цифровой скромности. Вице-президент компании Кевин Вейл заявил в X (бывший Twitter), что GPT-5 якобы решила десять нерешённых задач Эрдёша и продвинулась ещё в одиннадцати. Для научного мира это звучало как революция — ведь над этими задачами математики бились десятилетиями.

СМИ мгновенно подхватили новость: GPT-5 объявили новым Эйнштейном, а OpenAI — компанией, наконец достигшей настоящего искусственного интеллекта. Однако уже через сутки стало ясно, что сенсация — результат банального недоразумения.

Как всё началось

Поводом для шумихи послужил пост администратора одного из математических форумов, который тестировал возможности GPT-5. Модель, получив запрос о нерешённых задачах Эрдёша, выдала подборку публикаций и ссылок на работы, содержащие доказательства.

Администратор, не подозревая, что часть задач уже решена другими учёными, решил, что именно GPT-5 вывела решения самостоятельно, и опубликовал восторженный пост. Вейл, увидев сообщение, распространил его от лица OpenAI, не проверив детали — и новость моментально превратилась в "научную сенсацию".

Когда сенсация лопнула

Через несколько часов в сообществе математиков началось бурное обсуждение. Один за другим специалисты стали проверять "решённые" задачи — и быстро выяснили, что GPT-5 просто нашла уже существующие научные работы, опубликованные в разных изданиях за последние годы.

"AI не решала задачи, она просто соединила публикации, которые мы и так знали", — пояснил администратор форума, ставший источником путаницы.

Реакция последовала мгновенно.

Волна критики

Глава Google DeepMind Демис Хассабис назвал случившееся "позорным эпизодом для компании, претендующей на научную добросовестность".

"OpenAI обязана проверять факты с тем же усердием, с каким создаёт свои модели", — подчеркнул Хассабис.

А Ян Лекун из Meta прокомментировал ситуацию с иронией:

"Похоже, OpenAI впервые пережила момент, когда AI ввёл в заблуждение собственных создателей".

После волны критики Вейл удалил пост и принес извинения, объяснив, что сообщение не прошло внутреннюю проверку. Однако урон репутации уже был нанесён.

Что действительно умеет GPT-5

Несмотря на скандал, история имеет и положительную сторону. GPT-5 действительно продемонстрировала высокий уровень аналитического поиска. Она не решает задачи как человек-математик, но умеет находить связи между разрозненными научными публикациями, объединяя результаты десятков исследований.

Такую способность отметил и легендарный математик Терренс Тао:

"AI пока не решает великие задачи, но уже способен ускорить прогресс — не как гений, а как идеальный библиотекарь", — отметил учёный.

По сути, GPT-5 доказала ценность ИИ как инструмента не для творчества, а для синтеза знаний - поиска закономерностей и уже существующих решений.

Почему ошибка стала возможной

Инцидент вскрыл системную проблему — переоценку достижений ИИ и дефицит проверки фактов. Алгоритмы действительно способны впечатлять, но большинство людей, включая разработчиков, не до конца понимают границы возможностей моделей.

Функция GPT-5 Реальность
Решает сложные математические задачи Нет, лишь подбирает и комбинирует известные решения
Находит скрытые связи между публикациями Да, эффективно сопоставляет источники
Создаёт новые доказательства Нет, может только реконструировать уже существующие подходы
Проверяет достоверность данных Нет, требует человеческой верификации

Ошибка → Последствие → Альтернатива

Ошибка: публикация неподтверждённого научного заявления → Последствие: репутационные потери для компании → Альтернатива: создание внутренней системы научного фактчекинга перед любыми публичными анонсами.

Ошибка: доверие к AI без проверки контекста → Последствие: ложные сенсации → Альтернатива: использование моделей как инструмента анализа, а не источника истины.

А что если подобные ошибки станут нормой?

В эпоху, когда ИИ всё чаще участвует в научных процессах, риск появления "фейковых открытий" растёт. Модели вроде GPT-5 могут создавать убедительные, но неверные формулировки, которые даже специалисты принимают за открытия.

Если не развивать культуру проверки фактов, мир рискует столкнуться с новой формой дезинформации — научной иллюзией прогресса, где открытия существуют только в постах социальных сетей.

Плюсы и минусы инцидента

Плюсы Минусы
Показал реальную силу ИИ в анализе научных данных Нанёс ущерб репутации OpenAI
Напомнил о важности человеческой проверки Усилил скепсис в научном сообществе
Стимулировал дискуссию о границах возможностей AI Продемонстрировал недостатки корпоративного контроля

FAQ

Решала ли GPT-5 реально задачи Эрдёша?
Нет. Модель лишь нашла опубликованные решения, существовавшие ранее.

Почему в OpenAI не проверили информацию?
Пост был опубликован в личном порядке, без внутреннего согласования.

Кто первый обнаружил ошибку?
Математики, сравнившие "открытия" GPT-5 с уже известными научными работами.

Есть ли в действиях модели что-то революционное?
Да — способность объединять и интерпретировать разрозненные источники информации.

Как отреагировала OpenAI?
Пост удалили, компания признала ошибку и пообещала усилить внутреннюю модерацию.

Мифы и правда

Миф: GPT-5 решила десять нерешённых задач.
Правда: она лишь нашла опубликованные доказательства.

Миф: OpenAI пыталась сознательно обмануть общественность.
Правда: ошибка возникла из-за поспешности и недопроверки.

Миф: ИИ уже способен на самостоятельные научные открытия.
Правда: пока модели остаются инструментами анализа, а не изобретателями.

3 интересных факта

  1. Задачи Эрдёша — это более 1500 гипотез, сформулированных венгерским математиком Полом Эрдёшем, многие из которых остаются нерешёнными.

  2. GPT-5, по слухам, использует модульное обучение с расширенной памятью контекста, что делает её сильнее в аналитических задачах.

  3. Терренс Тао ранее участвовал в проекте Polymath, объединяющем исследователей по всему миру для коллективного решения задач — и теперь видит в ИИ аналог этого подхода.

Исторический контекст

Фальшивые "открытия" с участием искусственного интеллекта уже случались. В 2023 году одна из медицинских компаний заявила, что ИИ открыл новый антибиотик, хотя тот был известен с 2012 года. История с GPT-5 — продолжение той же тенденции: технологии становятся настолько убедительными, что даже эксперты иногда теряют бдительность.

Подписывайтесь на NewsInfo.Ru

Читайте также

Бумагу можно переработать до шести раз — эколог Пешков сегодня в 13:35
Пакет против пластика: какой пакет в магазине на самом деле стоит выбирать

Эколог Андрей Пешков пояснил NewsInfo, почему бумажные пакеты экологичнее пластиковых.

Читать полностью »
Православный мессенджер Зосима выйдет в первой половине 2026 года — Агапов 06.12.2025 в 7:57
Секретный проект раскрыт: Зосима выйдет в 2026-м и обещает стать главным духовным каналом

Православный мессенджер "Зосима" готовят к публичному запуску в 2026-м: тест уже прошли тысячи пользователей, а дальше всё решит масштабирование.

Читать полностью »
Конфликт приложений может замедлять работу гаджета — IT-эксперт Муртазин 05.12.2025 в 13:34
Когда телефон живет своей жизнью: из-за этих процессов гаджет начинает тормозить

Аналитик Эльдар Муртазин объяснил NewsInfo почему телефон может перегреваться и "тормозить".

Читать полностью »
Pokemon TCG Pocket признана лучшей игрой для iPhone — App Store Awards 2025 05.12.2025 в 13:25
Игры и приложения года раскрыты: пользователи не ожидали такого расклада от Apple

Премия App Store Awards 2025 изменила расстановку сил между крупными студиями и независимыми разработчиками, показав неожиданные приоритеты индустрии.

Читать полностью »
Модели телевизоров от Tuvio, TCL и Hisense названы лучшими до 17 тысяч рублей — Палач 05.12.2025 в 13:15
Бюджетные телевизоры поражают возможностями: не думал, что за такие деньги бывает такое

Подборка трёх доступных телевизоров до 17 тысяч рублей показывает, как бюджетный сегмент постепенно перенимает функции более дорогих моделей, сохраняя привлекательную цену.

Читать полностью »
Теневые каналы в Telegram живут в среднем семь месяцев — Лаборатория Касперского 05.12.2025 в 9:36
Лаборатория Касперского раскрыла правду: почему даже крупные теневые каналы в Telegram живут недолго

Kaspersky изучила 800+ теневых Telegram-каналов: в среднем они живут около семи месяцев. Почему блокировки усилились и куда уходят крупные сообщества?

Читать полностью »
Расширения WeTab и Infinity V+ собирали данные 4 млн пользователей — KOI Security 05.12.2025 в 8:57
Осторожно, обновление: как безобидное расширение после апдейта начало похищать ваши пароли

WeTab и Infinity V+ подозревают в скрытом сборе данных через обновления. Как работала "долгая" атака и почему пострадали миллионы пользователей?

Читать полностью »
Вредоносное ПО для Android закрепляется в системе — ТАСС 05.12.2025 в 8:23
Мошенники знают ваши слабые места: почему вы добровольно установите троян под видом YouTube Pro

Под видом "18+" и "расширенных" TikTok и YouTube пользователям подсовывают трояны. Как устроена сеть сайтов и что нашли операторы.

Читать полностью »