
Машина не врёт — она просто не понимает: громкий провал GPT-5 и урок для всех
История, начавшаяся как триумф искусственного интеллекта, закончилась для OpenAI громким скандалом и уроком по цифровой скромности. Вице-президент компании Кевин Вейл заявил в X (бывший Twitter), что GPT-5 якобы решила десять нерешённых задач Эрдёша и продвинулась ещё в одиннадцати. Для научного мира это звучало как революция — ведь над этими задачами математики бились десятилетиями.
СМИ мгновенно подхватили новость: GPT-5 объявили новым Эйнштейном, а OpenAI — компанией, наконец достигшей настоящего искусственного интеллекта. Однако уже через сутки стало ясно, что сенсация — результат банального недоразумения.
Как всё началось
Поводом для шумихи послужил пост администратора одного из математических форумов, который тестировал возможности GPT-5. Модель, получив запрос о нерешённых задачах Эрдёша, выдала подборку публикаций и ссылок на работы, содержащие доказательства.
Администратор, не подозревая, что часть задач уже решена другими учёными, решил, что именно GPT-5 вывела решения самостоятельно, и опубликовал восторженный пост. Вейл, увидев сообщение, распространил его от лица OpenAI, не проверив детали — и новость моментально превратилась в "научную сенсацию".
Когда сенсация лопнула
Через несколько часов в сообществе математиков началось бурное обсуждение. Один за другим специалисты стали проверять "решённые" задачи — и быстро выяснили, что GPT-5 просто нашла уже существующие научные работы, опубликованные в разных изданиях за последние годы.
"AI не решала задачи, она просто соединила публикации, которые мы и так знали", — пояснил администратор форума, ставший источником путаницы.
Реакция последовала мгновенно.
Волна критики
Глава Google DeepMind Демис Хассабис назвал случившееся "позорным эпизодом для компании, претендующей на научную добросовестность".
"OpenAI обязана проверять факты с тем же усердием, с каким создаёт свои модели", — подчеркнул Хассабис.
А Ян Лекун из Meta прокомментировал ситуацию с иронией:
"Похоже, OpenAI впервые пережила момент, когда AI ввёл в заблуждение собственных создателей".
После волны критики Вейл удалил пост и принес извинения, объяснив, что сообщение не прошло внутреннюю проверку. Однако урон репутации уже был нанесён.
Что действительно умеет GPT-5
Несмотря на скандал, история имеет и положительную сторону. GPT-5 действительно продемонстрировала высокий уровень аналитического поиска. Она не решает задачи как человек-математик, но умеет находить связи между разрозненными научными публикациями, объединяя результаты десятков исследований.
Такую способность отметил и легендарный математик Терренс Тао:
"AI пока не решает великие задачи, но уже способен ускорить прогресс — не как гений, а как идеальный библиотекарь", — отметил учёный.
По сути, GPT-5 доказала ценность ИИ как инструмента не для творчества, а для синтеза знаний - поиска закономерностей и уже существующих решений.
Почему ошибка стала возможной
Инцидент вскрыл системную проблему — переоценку достижений ИИ и дефицит проверки фактов. Алгоритмы действительно способны впечатлять, но большинство людей, включая разработчиков, не до конца понимают границы возможностей моделей.
Функция GPT-5 | Реальность |
Решает сложные математические задачи | Нет, лишь подбирает и комбинирует известные решения |
Находит скрытые связи между публикациями | Да, эффективно сопоставляет источники |
Создаёт новые доказательства | Нет, может только реконструировать уже существующие подходы |
Проверяет достоверность данных | Нет, требует человеческой верификации |
Ошибка → Последствие → Альтернатива
• Ошибка: публикация неподтверждённого научного заявления → Последствие: репутационные потери для компании → Альтернатива: создание внутренней системы научного фактчекинга перед любыми публичными анонсами.
• Ошибка: доверие к AI без проверки контекста → Последствие: ложные сенсации → Альтернатива: использование моделей как инструмента анализа, а не источника истины.
А что если подобные ошибки станут нормой?
В эпоху, когда ИИ всё чаще участвует в научных процессах, риск появления "фейковых открытий" растёт. Модели вроде GPT-5 могут создавать убедительные, но неверные формулировки, которые даже специалисты принимают за открытия.
Если не развивать культуру проверки фактов, мир рискует столкнуться с новой формой дезинформации — научной иллюзией прогресса, где открытия существуют только в постах социальных сетей.
Плюсы и минусы инцидента
Плюсы | Минусы |
Показал реальную силу ИИ в анализе научных данных | Нанёс ущерб репутации OpenAI |
Напомнил о важности человеческой проверки | Усилил скепсис в научном сообществе |
Стимулировал дискуссию о границах возможностей AI | Продемонстрировал недостатки корпоративного контроля |
FAQ
Решала ли GPT-5 реально задачи Эрдёша?
Нет. Модель лишь нашла опубликованные решения, существовавшие ранее.
Почему в OpenAI не проверили информацию?
Пост был опубликован в личном порядке, без внутреннего согласования.
Кто первый обнаружил ошибку?
Математики, сравнившие "открытия" GPT-5 с уже известными научными работами.
Есть ли в действиях модели что-то революционное?
Да — способность объединять и интерпретировать разрозненные источники информации.
Как отреагировала OpenAI?
Пост удалили, компания признала ошибку и пообещала усилить внутреннюю модерацию.
Мифы и правда
• Миф: GPT-5 решила десять нерешённых задач.
Правда: она лишь нашла опубликованные доказательства.
• Миф: OpenAI пыталась сознательно обмануть общественность.
Правда: ошибка возникла из-за поспешности и недопроверки.
• Миф: ИИ уже способен на самостоятельные научные открытия.
Правда: пока модели остаются инструментами анализа, а не изобретателями.
3 интересных факта
-
Задачи Эрдёша — это более 1500 гипотез, сформулированных венгерским математиком Полом Эрдёшем, многие из которых остаются нерешёнными.
-
GPT-5, по слухам, использует модульное обучение с расширенной памятью контекста, что делает её сильнее в аналитических задачах.
-
Терренс Тао ранее участвовал в проекте Polymath, объединяющем исследователей по всему миру для коллективного решения задач — и теперь видит в ИИ аналог этого подхода.
Исторический контекст
Фальшивые "открытия" с участием искусственного интеллекта уже случались. В 2023 году одна из медицинских компаний заявила, что ИИ открыл новый антибиотик, хотя тот был известен с 2012 года. История с GPT-5 — продолжение той же тенденции: технологии становятся настолько убедительными, что даже эксперты иногда теряют бдительность.
Подписывайтесь на NewsInfo.Ru