Искусственный интеллект
Искусственный интеллект
Олег Белов Опубликована сегодня в 2:34

Машина не врёт — она просто не понимает: громкий провал GPT-5 и урок для всех

Скандал вокруг GPT-5: OpenAI признала, что модель не решала задачи Эрдёша

История, начавшаяся как триумф искусственного интеллекта, закончилась для OpenAI громким скандалом и уроком по цифровой скромности. Вице-президент компании Кевин Вейл заявил в X (бывший Twitter), что GPT-5 якобы решила десять нерешённых задач Эрдёша и продвинулась ещё в одиннадцати. Для научного мира это звучало как революция — ведь над этими задачами математики бились десятилетиями.

СМИ мгновенно подхватили новость: GPT-5 объявили новым Эйнштейном, а OpenAI — компанией, наконец достигшей настоящего искусственного интеллекта. Однако уже через сутки стало ясно, что сенсация — результат банального недоразумения.

Как всё началось

Поводом для шумихи послужил пост администратора одного из математических форумов, который тестировал возможности GPT-5. Модель, получив запрос о нерешённых задачах Эрдёша, выдала подборку публикаций и ссылок на работы, содержащие доказательства.

Администратор, не подозревая, что часть задач уже решена другими учёными, решил, что именно GPT-5 вывела решения самостоятельно, и опубликовал восторженный пост. Вейл, увидев сообщение, распространил его от лица OpenAI, не проверив детали — и новость моментально превратилась в "научную сенсацию".

Когда сенсация лопнула

Через несколько часов в сообществе математиков началось бурное обсуждение. Один за другим специалисты стали проверять "решённые" задачи — и быстро выяснили, что GPT-5 просто нашла уже существующие научные работы, опубликованные в разных изданиях за последние годы.

"AI не решала задачи, она просто соединила публикации, которые мы и так знали", — пояснил администратор форума, ставший источником путаницы.

Реакция последовала мгновенно.

Волна критики

Глава Google DeepMind Демис Хассабис назвал случившееся "позорным эпизодом для компании, претендующей на научную добросовестность".

"OpenAI обязана проверять факты с тем же усердием, с каким создаёт свои модели", — подчеркнул Хассабис.

А Ян Лекун из Meta прокомментировал ситуацию с иронией:

"Похоже, OpenAI впервые пережила момент, когда AI ввёл в заблуждение собственных создателей".

После волны критики Вейл удалил пост и принес извинения, объяснив, что сообщение не прошло внутреннюю проверку. Однако урон репутации уже был нанесён.

Что действительно умеет GPT-5

Несмотря на скандал, история имеет и положительную сторону. GPT-5 действительно продемонстрировала высокий уровень аналитического поиска. Она не решает задачи как человек-математик, но умеет находить связи между разрозненными научными публикациями, объединяя результаты десятков исследований.

Такую способность отметил и легендарный математик Терренс Тао:

"AI пока не решает великие задачи, но уже способен ускорить прогресс — не как гений, а как идеальный библиотекарь", — отметил учёный.

По сути, GPT-5 доказала ценность ИИ как инструмента не для творчества, а для синтеза знаний - поиска закономерностей и уже существующих решений.

Почему ошибка стала возможной

Инцидент вскрыл системную проблему — переоценку достижений ИИ и дефицит проверки фактов. Алгоритмы действительно способны впечатлять, но большинство людей, включая разработчиков, не до конца понимают границы возможностей моделей.

Функция GPT-5 Реальность
Решает сложные математические задачи Нет, лишь подбирает и комбинирует известные решения
Находит скрытые связи между публикациями Да, эффективно сопоставляет источники
Создаёт новые доказательства Нет, может только реконструировать уже существующие подходы
Проверяет достоверность данных Нет, требует человеческой верификации

Ошибка → Последствие → Альтернатива

Ошибка: публикация неподтверждённого научного заявления → Последствие: репутационные потери для компании → Альтернатива: создание внутренней системы научного фактчекинга перед любыми публичными анонсами.

Ошибка: доверие к AI без проверки контекста → Последствие: ложные сенсации → Альтернатива: использование моделей как инструмента анализа, а не источника истины.

А что если подобные ошибки станут нормой?

В эпоху, когда ИИ всё чаще участвует в научных процессах, риск появления "фейковых открытий" растёт. Модели вроде GPT-5 могут создавать убедительные, но неверные формулировки, которые даже специалисты принимают за открытия.

Если не развивать культуру проверки фактов, мир рискует столкнуться с новой формой дезинформации — научной иллюзией прогресса, где открытия существуют только в постах социальных сетей.

Плюсы и минусы инцидента

Плюсы Минусы
Показал реальную силу ИИ в анализе научных данных Нанёс ущерб репутации OpenAI
Напомнил о важности человеческой проверки Усилил скепсис в научном сообществе
Стимулировал дискуссию о границах возможностей AI Продемонстрировал недостатки корпоративного контроля

FAQ

Решала ли GPT-5 реально задачи Эрдёша?
Нет. Модель лишь нашла опубликованные решения, существовавшие ранее.

Почему в OpenAI не проверили информацию?
Пост был опубликован в личном порядке, без внутреннего согласования.

Кто первый обнаружил ошибку?
Математики, сравнившие "открытия" GPT-5 с уже известными научными работами.

Есть ли в действиях модели что-то революционное?
Да — способность объединять и интерпретировать разрозненные источники информации.

Как отреагировала OpenAI?
Пост удалили, компания признала ошибку и пообещала усилить внутреннюю модерацию.

Мифы и правда

Миф: GPT-5 решила десять нерешённых задач.
Правда: она лишь нашла опубликованные доказательства.

Миф: OpenAI пыталась сознательно обмануть общественность.
Правда: ошибка возникла из-за поспешности и недопроверки.

Миф: ИИ уже способен на самостоятельные научные открытия.
Правда: пока модели остаются инструментами анализа, а не изобретателями.

3 интересных факта

  1. Задачи Эрдёша — это более 1500 гипотез, сформулированных венгерским математиком Полом Эрдёшем, многие из которых остаются нерешёнными.

  2. GPT-5, по слухам, использует модульное обучение с расширенной памятью контекста, что делает её сильнее в аналитических задачах.

  3. Терренс Тао ранее участвовал в проекте Polymath, объединяющем исследователей по всему миру для коллективного решения задач — и теперь видит в ИИ аналог этого подхода.

Исторический контекст

Фальшивые "открытия" с участием искусственного интеллекта уже случались. В 2023 году одна из медицинских компаний заявила, что ИИ открыл новый антибиотик, хотя тот был известен с 2012 года. История с GPT-5 — продолжение той же тенденции: технологии становятся настолько убедительными, что даже эксперты иногда теряют бдительность.

Подписывайтесь на NewsInfo.Ru

Читайте также

Робот Unitree H2 показал плавную походку и устойчивость, сравнимую с человеком сегодня в 4:46
Он шагает как человек — и уже выглядит как человек: Китай показал пугающе живого робота

Китайская Unitree представила человекоподобного робота H2 с плавной походкой и человеческими пропорциями. Почему его называют самым естественным роботом нового поколения?

Читать полностью »
В Китае разработали миниатюрный оптический чип Yuheng для анализа света в реальном времени сегодня в 3:46
Он видит свет по-новому: чип Yuheng обещает заменить громоздкие спектрометры

Китайские учёные создали оптический чип Yuheng, способный анализировать свет в реальном времени с точностью лабораторных приборов. Как он работает и почему его собираются протестировать на крупнейшем телескопе мира?

Читать полностью »
Андрей Карпаты заявил, что искусственный интеллект лишает людей способности принимать решения сегодня в 1:44
Не машины станут опасными — а мы перестанем думать: тревожный прогноз от создателя ИИ

Инженер Андрей Карпаты предупреждает: настоящая опасность ИИ не в восстании машин, а в том, что люди перестанут думать самостоятельно. Почему он считает это «тихим вымиранием мышления»?

Читать полностью »
NVIDIA объявила о прорыве: открытая модель показала результат уровня золота на олимпиаде по информатике сегодня в 0:26
ИИ думал дольше — и стал умнее: открытая модель от NVIDIA взяла "золото" на олимпиаде

Модель NVIDIA с открытыми весами достигла уровня золотой медали на Международной олимпиаде по информатике. Как система GenCluster смогла обойти закрытые аналоги OpenAI?

Читать полностью »
Electronic Arts объявила о закрытии The Sims Mobile — серверы отключат 20 января 2026 года вчера в 23:26
Sims уезжают навсегда: мобильная версия игры готовится к прощальному выходу

EA объявила о закрытии The Sims Mobile и готовит 14 финальных событий перед отключением серверов. Почему компания передумала и как это связано с её продажей за $55 млрд?

Читать полностью »
OpenAI представила ИИ-браузер ChatGPT Atlas с интеграцией голосовых функций GPT-5 вчера в 22:55
Chrome нервно курит в углу: новый Atlas от OpenAI меняет всё, что мы знали о поиске

OpenAI представила ChatGPT Atlas — первый ИИ-браузер с памятью и агентами, который может заменить привычный поиск и стать новым способом общения с интернетом.

Читать полностью »
Энтузиаст показал, как запустить Battlefield 6 на мини-дисплее кулера вчера в 21:16
Играл в Battlefield 6 на дисплее от кулера: меньше, чем смарт-часы, но всё работает

Немецкий блогер запустил Battlefield 6 на 2,1-дюймовом дисплее кулера MSI. Как ему это удалось и почему видео стало вирусным в техносообществе?

Читать полностью »
Google временно закрыл офис в Нью-Йорке из-за нашествия клопов вчера в 20:13
Империя кода против армии клопов: как насекомые заставили Google нажать “pause”

Офис Google в Нью-Йорке временно опустел после того, как специалисты нашли следы клопов. Рассказываем, откуда взялись насекомые и почему их так трудно уничтожить.

Читать полностью »