
ИИ думал дольше — и стал умнее: открытая модель от NVIDIA взяла "золото" на олимпиаде
Компания NVIDIA объявила о впечатляющем достижении в области искусственного интеллекта: её новая система, построенная на модели с открытыми весами gpt-oss-120B, показала результат уровня золотой медали на Международной олимпиаде по информатике (IOI). До этого аналогичного уровня достигала только экспериментальная закрытая модель OpenAI.
Это событие стало прорывом не только для NVIDIA, но и для всей сферы открытых моделей — впервые система с публично доступной архитектурой и весами смогла конкурировать с лучшими проприетарными решениями в задачах, требующих точного алгоритмического мышления.
Как устроена система NVIDIA
Разработанная инженерами NVIDIA Research, система получила название GenCluster. В её основе — модель gpt-oss-120B, использующая архитектуру Mixture of Experts (смешение экспертов).
Суть подхода заключается не в увеличении размера модели, а в новом способе использования вычислений на этапе вывода. Вместо того чтобы генерировать одно "лучшее" решение, система применяет стратегию Test-Time Compute (TTC) - создаёт тысячи вариантов ответов, анализирует их и проводит внутренний отбор.
Как работает Test-Time Compute
-
Генерация: для каждой задачи создаётся до 5000 решений.
-
Кластеризация: система группирует решения по схожему поведению.
-
Отбор: между группами проводится своего рода "турнир", где варианты соревнуются по качеству выполнения тестов.
-
Финальный выбор: лучшие решения отправляются в олимпиадную систему проверки.
"Модель не становится умнее сама по себе — она просто тратит больше времени на размышления, а не на обучение", — пояснили в NVIDIA.
Такой подход позволяет добиться высокого качества без роста размера модели, что особенно важно для систем с ограниченными вычислительными ресурсами.
Олимпиадные условия — без послаблений
Разработчики подчёркивают, что во время тестов соблюдались все официальные правила IOI:
• две сессии по 5 часов;
• по три задачи на каждую;
• ограничение на количество отправок (около 50 попыток на задачу).
Таким образом, GenCluster действительно проходил через тот же формат, что и реальные участники олимпиады, а не просто решал архивные задачи в свободном режиме.
В чём инновация подхода GenCluster
Главная идея NVIDIA — перераспределить вычисления с обучения на вывод. То есть не обучать всё большую и большую модель, а позволить уже существующей "думать дольше".
Фактически GenCluster — это модель, способная к самоотбору решений, где количество вычислений напрямую увеличивает качество вывода. Такой подход открывает перспективы для задач, где традиционные LLM не справляются из-за ограниченного "времени рассуждения".
Классический подход | GenCluster |
Модель обучается на большем количестве данных | Модель использует больше вычислений при генерации |
Зависимость от размера модели | Зависимость от глубины анализа |
1-2 решения за один прогон | До 5000 решений с внутренним турниром |
Большие затраты на обучение | Гибкое управление вычислениями на этапе вывода |
Архитектура gpt-oss-120B
Модель gpt-oss-120B построена по принципу Mixture of Experts, что позволяет активировать только часть параметров при каждом прогоне.
• Общий объём — около 120 млрд параметров,
• Активных — в среднем 5,1 млрд на каждый токен.
Это снижает стоимость вычислений без потери качества и делает систему эффективнее при массовых тестовых запусках, как в случае с TTC.
Что означает результат для индустрии
Достижение NVIDIA — веха для открытых моделей. До сих пор считалось, что задачи уровня олимпиадного программирования под силу только дорогим, закрытым системам, обладающим огромными вычислительными бюджетами.
Теперь становится ясно: интеллектуальные стратегии использования вычислений способны компенсировать отставание по размерам модели и даже превосходить решения коммерческих лабораторий.
"GenCluster показывает, что важен не только размер модели, но и то, как она использует время и вычисления", — отметили в NVIDIA Research.
Возможные применения
Технология GenCluster может быть использована для:
• автоматической отладки и оптимизации кода;
• генерации сложных алгоритмических решений;
• проектирования микросхем и систем управления;
• обучающих платформ, где система может объяснять решения олимпиадных задач.
NVIDIA уже рассматривает интеграцию подхода в будущие инструменты для разработчиков, включая NVIDIA NIM и DGX Cloud AI.
Ошибка → Последствие → Альтернатива
• Ошибка: стремиться только к увеличению параметров модели → Последствие: рост затрат на обучение без роста качества → Альтернатива: перераспределить вычисления с обучения на вывод (TTC).
• Ошибка: ограничивать модель одним результатом → Последствие: потеря разнообразия решений → Альтернатива: использовать кластеризацию и турнирный отбор (GenCluster).
А что если TTC станет стандартом?
Эксперты считают, что подход Test-Time Compute может стать новой парадигмой в ИИ-инженерии. Вместо того чтобы строить всё более дорогие модели, компании смогут оптимизировать процесс вывода, балансируя между скоростью и качеством.
Это может радикально снизить порог вхождения в конкурентные исследования и сделать мощный ИИ доступнее для академических лабораторий и open-source-сообщества.
Плюсы и минусы подхода NVIDIA
Плюсы | Минусы |
Результаты уровня золотой медали IOI | Высокая вычислительная нагрузка при генерации |
Основано на открытой модели | Требует сложной инфраструктуры для отбора |
Гибкость и масштабируемость TTC | Не подходит для задач, требующих мгновенного вывода |
Снижение зависимости от размера модели | Отсутствие данных о реальной стоимости вычислений |
FAQ
Что такое Test-Time Compute?
Это стратегия, при которой модель генерирует множество решений и выбирает лучшие, тратя больше вычислений на этапе вывода.
Почему используется Mixture of Experts?
Чтобы снизить нагрузку — активны лишь некоторые "эксперты" из всех параметров модели.
Модель действительно соревновалась по олимпийским правилам?
Да, две сессии по пять часов, три задачи, лимит попыток — всё как у реальных участников IOI.
Были ли у NVIDIA преимущества в вычислительных ресурсах?
Публичных данных нет, но эксперты полагают, что суммарные затраты могли быть сопоставимы или даже ниже, чем у OpenAI.
Когда технология появится в продуктах?
Пока это исследовательская разработка, но элементы TTC могут появиться в инструментах NVIDIA для ИИ-разработчиков в 2026 году.
Мифы и правда
• Миф: NVIDIA создала новую сверхбольшую модель.
Правда: gpt-oss-120B уже существовала — улучшился метод вывода.
• Миф: модель нарушала правила олимпиады.
Правда: все ограничения IOI были соблюдены, включая лимит времени.
• Миф: открытые модели не способны решать сложные задачи.
Правда: GenCluster доказал обратное, достигнув уровня золота.
3 интересных факта
-
Генерация 5000 решений для одной задачи занимает несколько часов на GPU-кластере NVIDIA H100.
-
Метод TTC может адаптироваться под любую задачу — от математики до биоинформатики.
-
Исследователи сравнили поведение модели с "коллективным разумом программистов", соревнующихся за лучшее решение.
Исторический контекст
Идея "долгого размышления" моделей зародилась в 2022 году с работ OpenAI и Anthropic о многократных итерациях вывода. Но именно NVIDIA впервые доказала эффективность подхода на международном уровне соревнований, сопоставимом с человеческими результатами. GenCluster стал первым примером того, как открытая модель может конкурировать с закрытыми лидерами, используя лишь стратегию распределения вычислений.
Подписывайтесь на NewsInfo.Ru