Будущее за спорящими машинами: ИИ научился разносить сам себя в пух и прах
Один из авторов легендарной статьи Attention is All You Need и ведущий исследователь OpenAI Лукаш Кайзер в новом интервью рассказал о будущем искусственного интеллекта и о том, почему наступает новая эпоха — эпоха рассуждающих моделей. По мнению учёного, нынешние достижения — лишь первый шаг, а впереди человечество ждёт качественно иной тип взаимодействия с ИИ.
От генерации текста к рассуждениям
Кайзер убеждён, что крупнейший сдвиг в развитии ИИ уже произошёл — и заключается он не в росте параметров, а в изменении парадигмы. Если ранние модели вроде GPT-3 и GPT-4 в основном предсказывали следующий токен текста, то новое поколение систем, начавшееся с серии o1, способно рассуждать и проверять собственные выводы.
"Мы переходим от простых продолжателей текста к моделям, которые действительно думают", — отметил Лукаш Кайзер.
Именно этот переход, по его словам, воплотился в моделях GPT-5 Thinking и GPT-5 Pro, которые учатся не только формулировать ответ, но и оценивать логику рассуждений.
Обучение с подкреплением и "мозговой штурм" моделей
Исследователь пояснил, что традиционные языковые модели уже столкнулись с ограничением: новые качественные текстовые данные почти иссякли. Однако рассуждающие системы продолжают развиваться благодаря обучению с подкреплением (RL), где качество рассуждений оценивается и постепенно улучшается.
Другим перспективным направлением Кайзер называет параллельное рассуждение - когда несколько моделей работают над одной задачей независимо, предлагая разные гипотезы, а затем система объединяет их в единый ответ. Такой подход уже тестируется внутри OpenAI и, по словам исследователя, показывает отличные результаты в сложных задачах программирования, логики и анализа данных.
Проверка, самокритика и борьба с галлюцинациями
Одной из ключевых проблем остаются галлюцинации - ложные утверждения, которые модели выдают с высокой уверенностью. Кайзер считает, что эффективный путь борьбы с ними — это научить ИИ перепроверять самого себя.
"Хорошая модель должна уметь сказать "не знаю”, если уверенности недостаточно", — подчеркнул Лукаш Кайзер.
В OpenAI, по его словам, активно разрабатываются механизмы внутренней валидации ответов: модель должна не просто генерировать текст, а анализировать свои рассуждения и при необходимости корректировать их.
Мультимодальность — не панацея
Хотя многие компании делают ставку на мультимодальные ИИ, Кайзер видит её применимость выборочно. Он считает, что зрение, звук и движение важны лишь там, где требуется понимание физического мира, например, в робототехнике или автономных системах.
В областях вроде математики, анализа данных или написания кода мультимодальность, по его словам, не даёт решающего преимущества:
"Для этих задач весь нужный "мир” уже есть в тексте", — отметил исследователь.
Поэтому ставка OpenAI остаётся на рассуждение и инструменты - интеграцию ИИ с внешними вычислительными системами, базами данных и специализированными средами для проверки гипотез.
Нет "зимы ИИ" — будет рывок
Кайзер скептически относится к прогнозам о новой "зиме искусственного интеллекта" — периоде стагнации и снижения интереса. Наоборот, он ожидает новый заметный скачок уже в ближайшие 1-2 года. По его мнению, главные барьеры сейчас не теоретические, а инфраструктурные:
-
вычислительные мощности,
-
энергоэффективность,
-
оптимизация процессов обучения.
OpenAI и другие компании, утверждает он, постепенно переходят от массовых переобучений "с нуля" к улучшению процедур размышления и более умному использованию уже накопленных данных.
Как изменится роль инженеров и пользователей
Кайзер считает, что в будущем программисты будут всё чаще выступать не авторами кода, а постановщиками задач, формулирующими цели для рассуждающих систем. А пользователи, наоборот, получат инструменты, позволяющие им взаимодействовать с ИИ как с напарником — не давая инструкции, а обсуждая логику и стратегию решения.
Сравнение поколений моделей OpenAI
| Поколение | Основная функция | Тип обучения | Ключевая особенность |
| GPT-3 | Генерация текста | Супервизия на больших корпусах | Предсказание токенов |
| GPT-4 | Контекстное понимание | Смешанное обучение | Улучшенная память и безопасность |
| o1 / GPT-5 Thinking | Рассуждение | RL + самооценка ответов | Параллельное мышление и проверка гипотез |
Ошибка → Последствие → Альтернатива
-
Ошибка: Опора только на размер модели.
Последствие: Рост затрат и снижение эффективности.
Альтернатива: Улучшение архитектуры рассуждений и обучения с подкреплением. -
Ошибка: Игнорирование самопроверки.
Последствие: Галлюцинации и недоверие пользователей.
Альтернатива: Встроенные механизмы самооценки и признание неопределённости. -
Ошибка: Универсальная ставка на мультимодальность.
Последствие: Избыточные ресурсы без прироста точности.
Альтернатива: Таргетированное применение там, где она действительно нужна.
А что если ИИ начнёт спорить сам с собой?
По мнению Кайзера, самосогласованные модели, которые генерируют несколько независимых цепочек рассуждений и выбирают наиболее обоснованную, станут стандартом уже в ближайшем будущем. Это позволит повысить достоверность ответов и сделать искусственный интеллект ближе к человеческому стилю мышления — где разные "внутренние голоса" приходят к единому выводу.
Плюсы и минусы рассуждающих моделей
| Плюсы | Минусы |
| Более точные и аргументированные ответы | Большие вычислительные затраты |
| Умение признавать неопределённость | Замедление отклика |
| Возможность анализа сложных задач | Повышенные требования к обучению |
| Потенциал для научных открытий | Нужны новые методы оценки |
3 интересных факта о Лукаше Кайзере и его подходе
-
До OpenAI он работал в Google Brain, где занимался архитектурой трансформеров и алгоритмами RL.
-
Кайзер считает, что "рассуждение — это не новая архитектура, а новая философия обучения".
-
Он активно выступает за открытые исследования и обмен идеями между лабораториями, считая закрытость "тормозом прогресса".
FAQ
Что такое параллельное рассуждение?
Это подход, при котором несколько копий модели выдвигают собственные гипотезы, а финальный ответ строится из их синтеза.
Почему обучение с подкреплением важно для ИИ?
Оно позволяет моделям улучшать логику и точность решений на основе обратной связи, а не только копировать шаблоны из данных.
Чем рассуждающие модели отличаются от обычных языковых?
Они не просто предсказывают текст, а выполняют внутренний анализ, проверяя, насколько их выводы логически согласованы.
Нужна ли мультимодальность для всех задач?
Нет. Она полезна для робототехники и физического взаимодействия с миром, но не обязательна для анализа данных или кода.
Когда ждать нового прорыва в ИИ?
По прогнозу Кайзера, заметный скачок в рассуждающих моделях произойдёт в течение ближайших двух лет.
Подписывайтесь на NewsInfo.Ru