
ИИ не станет сверхразумом завтра: Карпатый рассказал, что пойдёт не так
Один из самых известных специалистов по искусственному интеллекту, Андрей Карпатый - бывший директор по ИИ в Tesla, участник ранней команды OpenAI и основатель стартапа Eureka Labs - дал обстоятельное интервью подкастеру Дваркешу Пателю. В разговоре он объяснил, почему, несмотря на бурный прогресс последних лет, создание полноценного AGI (Artificial General Intelligence) — дело не ближайшего будущего.
По словам Карпатого, на доведение современных архитектур до уровня "универсального разума" уйдёт не менее десяти лет. При этом фундамент останется тем же — трансформеры, но их развитие потребует колоссальных усилий и времени.
Почему AGI — не завтра
Карпатый подчеркнул, что многие переоценивают скорость эволюции искусственного интеллекта. Он напомнил, что в технологическом развитии ИИ не существует магического скачка, который за одно обновление превратит модель в сверхразум. Прогресс идёт постепенно, и каждый новый процент надёжности требует несоразмерно больших затрат ресурсов и времени.
В качестве примера он привёл опыт Tesla. В компании инженеры стремились к "маршу девяток" — последовательному повышению точности автономного вождения.
"Демо, которое работает в 90% случаев, — это только первая девятка. Чтобы достичь 99% и 99,9%, нужно пройти долгий и трудный путь", — пояснил Андрей Карпатый.
Он добавил, что с ИИ происходит то же самое: модели вроде GPT-5 или Claude Sonnet создают впечатление огромного скачка, но до стабильной, надёжной работы в реальных сценариях им ещё далеко.
Иллюзия "года агентов"
Карпатый не согласен с оптимистичной позицией главы OpenAI Сэма Альтмана, который назвал 2025 год "годом ИИ-агентов". По мнению Андрея, ближайшее десятилетие будет не временем прорыва, а этапом кропотливой доводки.
Современные ИИ-агенты, по его словам, можно сравнить со стажёрами на испытательном сроке: они умеют выполнять отдельные задачи, но не способны к самостоятельному мышлению, накоплению опыта и адаптации к реальности.
"Хороший агент — это как сотрудник, который понимает контекст, учится на ошибках и действует осознанно. Наши системы пока далеки от этого", — отметил Андрей Карпатый.
Он добавил, что нынешние модели страдают от отсутствия непрерывного обучения, ограниченной мультимодальности и дефицита здравого смысла — того, что позволяет людям понимать последовательность событий во времени и причинно-следственные связи.
Проблемы текущего подхода
Среди основных препятствий Карпатый выделил несовершенство алгоритмов обучения с подкреплением (reinforcement learning). Эта методика широко используется при обучении языковых моделей, но имеет серьёзные ограничения.
"Reinforcement learning — это как всасывать знания через соломинку: модель делает миллионы действий и получает лишь один сигнал — "хорошо” или "плохо”", — объяснил Андрей Карпатый.
Он подчеркнул, что человек учится иначе: постоянно оценивает свои решения, анализирует промежуточные шаги и корректирует поведение. Чтобы искусственный интеллект приблизился к такому типу мышления, ему нужен механизм саморефлексии — способность понимать, почему результат получился правильным или ошибочным.
Сравнение подходов
Подход | Принцип | Сильные стороны | Недостатки |
Reinforcement Learning | Вознаграждение за финальный результат | Хорошо работает в играх и замкнутых системах | Слабо применим к сложным задачам с размытой обратной связью |
Обучение с примерами (Supervised Learning) | Использование готовых ответов | Быстрая настройка моделей | Не развивает самостоятельное мышление |
Обучение с рефлексией (будущий подход) | Анализ собственных ошибок | Возможность самообучения | Пока не реализовано в масштабах LLM |
Советы шаг за шагом: как продвигается путь к AGI
-
Улучшение памяти. Модели должны научиться сохранять контекст не только в рамках одной сессии, но и на протяжении месяцев.
-
Мультимодальность. Объединение текста, изображений, видео и звука в единую систему восприятия.
-
Рефлексия. Создание механизма самоанализа действий модели.
-
Непрерывное обучение. ИИ должен развиваться от опыта к опыту, а не зависеть от "обновлений версий".
-
Этика и безопасность. По мере роста возможностей критически важно внедрять системы контроля и интерпретации решений.
Ошибка → Последствие → Альтернатива
-
Ошибка: полагаться только на техническое совершенство архитектуры.
Последствие: ИИ не понимает контекст и смысл действий.
Альтернатива: развитие когнитивных компонентов — логики, памяти, планирования. -
Ошибка: игнорирование безопасности и интерпретируемости.
Последствие: невозможность объяснить поведение модели.
Альтернатива: интеграция прозрачных систем отслеживания решений. -
Ошибка: стремление ускорить разработку ради эффектных демо.
Последствие: создание нестабильных прототипов, не пригодных для реального мира.
Альтернатива: постепенная оптимизация с ориентацией на долгосрочную надёжность.
А что если Карпатый прав?
Если развитие ИИ действительно займёт десятилетие, как прогнозирует эксперт, то индустрии предстоит долгий период "шлифовки". Это может привести к более устойчивому росту рынка, где внимание сместится с демонстраций и хайпа к реальной эффективности и безопасности. Компании, инвестирующие в фундаментальные исследования, получат преимущество, а пользователи — более надёжные системы.
Плюсы и минусы долгого пути к AGI
Плюсы | Минусы |
Более надёжные и безопасные системы | Медленное внедрение инноваций |
Глубокое понимание принципов обучения | Потеря медийного интереса |
Возможность этического регулирования | Высокая стоимость исследований |
FAQ
— Почему Карпатый уверен, что AGI не появится раньше десяти лет?
Он считает, что текущие архитектуры уже уперлись в пределы масштабирования, и теперь требуется качественная эволюция, а не просто увеличение параметров.
— Что такое "марш девяток"?
Это метафора постепенного повышения надёжности: от 90% до 99,9%. Каждая новая "девятка" требует экспоненциально больше усилий.
— Согласен ли он с Сэмом Альтманом?
Нет. Он полагает, что 2025 год не станет "годом агентов", а лишь продолжением длительного процесса их совершенствования.
Мифы и правда
• Миф: AGI уже почти создано.
Правда: современные модели впечатляют, но далеки от понимания и осознания мира.
• Миф: больше параметров — значит умнее.
Правда: масштаб помогает, но не решает проблему рефлексии и обучения в реальном времени.
• Миф: ИИ способен заменить человека во всех профессиях.
Правда: большинство моделей по-прежнему не умеют мыслить абстрактно и планировать вне заданных сценариев.
Исторический контекст
Идея создания универсального интеллекта обсуждается с 1950-х годов. Первые попытки — программы Лиспа и экспертные системы — провалились из-за отсутствия вычислительных мощностей. Прорывом стали трансформеры (2017 год), открывшие путь моделям нового поколения. Сегодня ИИ умеет писать тексты, код, рисовать и анализировать данные, но до осознанного мышления ему всё ещё далеко.
Подписывайтесь на NewsInfo.Ru