Помощь ИИ в терапии
Помощь ИИ в терапии
Олег Белов Опубликована 19.10.2025 в 9:27

ИИ не станет сверхразумом завтра: Карпатый рассказал, что пойдёт не так

Андрей Карпатый объяснил, почему искусственный интеллект ещё далёк от уровня AGI

Один из самых известных специалистов по искусственному интеллекту, Андрей Карпатый - бывший директор по ИИ в Tesla, участник ранней команды OpenAI и основатель стартапа Eureka Labs - дал обстоятельное интервью подкастеру Дваркешу Пателю. В разговоре он объяснил, почему, несмотря на бурный прогресс последних лет, создание полноценного AGI (Artificial General Intelligence) — дело не ближайшего будущего.

По словам Карпатого, на доведение современных архитектур до уровня "универсального разума" уйдёт не менее десяти лет. При этом фундамент останется тем же — трансформеры, но их развитие потребует колоссальных усилий и времени.

Почему AGI — не завтра

Карпатый подчеркнул, что многие переоценивают скорость эволюции искусственного интеллекта. Он напомнил, что в технологическом развитии ИИ не существует магического скачка, который за одно обновление превратит модель в сверхразум. Прогресс идёт постепенно, и каждый новый процент надёжности требует несоразмерно больших затрат ресурсов и времени.

В качестве примера он привёл опыт Tesla. В компании инженеры стремились к "маршу девяток" — последовательному повышению точности автономного вождения.

"Демо, которое работает в 90% случаев, — это только первая девятка. Чтобы достичь 99% и 99,9%, нужно пройти долгий и трудный путь", — пояснил Андрей Карпатый.

Он добавил, что с ИИ происходит то же самое: модели вроде GPT-5 или Claude Sonnet создают впечатление огромного скачка, но до стабильной, надёжной работы в реальных сценариях им ещё далеко.

Иллюзия "года агентов"

Карпатый не согласен с оптимистичной позицией главы OpenAI Сэма Альтмана, который назвал 2025 год "годом ИИ-агентов". По мнению Андрея, ближайшее десятилетие будет не временем прорыва, а этапом кропотливой доводки.

Современные ИИ-агенты, по его словам, можно сравнить со стажёрами на испытательном сроке: они умеют выполнять отдельные задачи, но не способны к самостоятельному мышлению, накоплению опыта и адаптации к реальности.

"Хороший агент — это как сотрудник, который понимает контекст, учится на ошибках и действует осознанно. Наши системы пока далеки от этого", — отметил Андрей Карпатый.

Он добавил, что нынешние модели страдают от отсутствия непрерывного обучения, ограниченной мультимодальности и дефицита здравого смысла — того, что позволяет людям понимать последовательность событий во времени и причинно-следственные связи.

Проблемы текущего подхода

Среди основных препятствий Карпатый выделил несовершенство алгоритмов обучения с подкреплением (reinforcement learning). Эта методика широко используется при обучении языковых моделей, но имеет серьёзные ограничения.

"Reinforcement learning — это как всасывать знания через соломинку: модель делает миллионы действий и получает лишь один сигнал — "хорошо” или "плохо”", — объяснил Андрей Карпатый.

Он подчеркнул, что человек учится иначе: постоянно оценивает свои решения, анализирует промежуточные шаги и корректирует поведение. Чтобы искусственный интеллект приблизился к такому типу мышления, ему нужен механизм саморефлексии — способность понимать, почему результат получился правильным или ошибочным.

Сравнение подходов

Подход Принцип Сильные стороны Недостатки
Reinforcement Learning Вознаграждение за финальный результат Хорошо работает в играх и замкнутых системах Слабо применим к сложным задачам с размытой обратной связью
Обучение с примерами (Supervised Learning) Использование готовых ответов Быстрая настройка моделей Не развивает самостоятельное мышление
Обучение с рефлексией (будущий подход) Анализ собственных ошибок Возможность самообучения Пока не реализовано в масштабах LLM

Советы шаг за шагом: как продвигается путь к AGI

  1. Улучшение памяти. Модели должны научиться сохранять контекст не только в рамках одной сессии, но и на протяжении месяцев.

  2. Мультимодальность. Объединение текста, изображений, видео и звука в единую систему восприятия.

  3. Рефлексия. Создание механизма самоанализа действий модели.

  4. Непрерывное обучение. ИИ должен развиваться от опыта к опыту, а не зависеть от "обновлений версий".

  5. Этика и безопасность. По мере роста возможностей критически важно внедрять системы контроля и интерпретации решений.

Ошибка → Последствие → Альтернатива

  • Ошибка: полагаться только на техническое совершенство архитектуры.
    Последствие: ИИ не понимает контекст и смысл действий.
    Альтернатива: развитие когнитивных компонентов — логики, памяти, планирования.

  • Ошибка: игнорирование безопасности и интерпретируемости.
    Последствие: невозможность объяснить поведение модели.
    Альтернатива: интеграция прозрачных систем отслеживания решений.

  • Ошибка: стремление ускорить разработку ради эффектных демо.
    Последствие: создание нестабильных прототипов, не пригодных для реального мира.
    Альтернатива: постепенная оптимизация с ориентацией на долгосрочную надёжность.

А что если Карпатый прав?

Если развитие ИИ действительно займёт десятилетие, как прогнозирует эксперт, то индустрии предстоит долгий период "шлифовки". Это может привести к более устойчивому росту рынка, где внимание сместится с демонстраций и хайпа к реальной эффективности и безопасности. Компании, инвестирующие в фундаментальные исследования, получат преимущество, а пользователи — более надёжные системы.

Плюсы и минусы долгого пути к AGI

Плюсы Минусы
Более надёжные и безопасные системы Медленное внедрение инноваций
Глубокое понимание принципов обучения Потеря медийного интереса
Возможность этического регулирования Высокая стоимость исследований

FAQ

— Почему Карпатый уверен, что AGI не появится раньше десяти лет?
Он считает, что текущие архитектуры уже уперлись в пределы масштабирования, и теперь требуется качественная эволюция, а не просто увеличение параметров.

— Что такое "марш девяток"?
Это метафора постепенного повышения надёжности: от 90% до 99,9%. Каждая новая "девятка" требует экспоненциально больше усилий.

— Согласен ли он с Сэмом Альтманом?
Нет. Он полагает, что 2025 год не станет "годом агентов", а лишь продолжением длительного процесса их совершенствования.

Мифы и правда

Миф: AGI уже почти создано.
Правда: современные модели впечатляют, но далеки от понимания и осознания мира.

Миф: больше параметров — значит умнее.
Правда: масштаб помогает, но не решает проблему рефлексии и обучения в реальном времени.

Миф: ИИ способен заменить человека во всех профессиях.
Правда: большинство моделей по-прежнему не умеют мыслить абстрактно и планировать вне заданных сценариев.

Исторический контекст

Идея создания универсального интеллекта обсуждается с 1950-х годов. Первые попытки — программы Лиспа и экспертные системы — провалились из-за отсутствия вычислительных мощностей. Прорывом стали трансформеры (2017 год), открывшие путь моделям нового поколения. Сегодня ИИ умеет писать тексты, код, рисовать и анализировать данные, но до осознанного мышления ему всё ещё далеко.

Подписывайтесь на NewsInfo.Ru

Читайте также

Православный мессенджер Зосима выйдет в первой половине 2026 года — Агапов 06.12.2025 в 7:57
Секретный проект раскрыт: Зосима выйдет в 2026-м и обещает стать главным духовным каналом

Православный мессенджер "Зосима" готовят к публичному запуску в 2026-м: тест уже прошли тысячи пользователей, а дальше всё решит масштабирование.

Читать полностью »
Конфликт приложений может замедлять работу гаджета — IT-эксперт Муртазин 05.12.2025 в 13:34
Когда телефон живет своей жизнью: из-за этих процессов гаджет начинает тормозить

Аналитик Эльдар Муртазин объяснил NewsInfo почему телефон может перегреваться и "тормозить".

Читать полностью »
Pokemon TCG Pocket признана лучшей игрой для iPhone — App Store Awards 2025 05.12.2025 в 13:25
Игры и приложения года раскрыты: пользователи не ожидали такого расклада от Apple

Премия App Store Awards 2025 изменила расстановку сил между крупными студиями и независимыми разработчиками, показав неожиданные приоритеты индустрии.

Читать полностью »
Модели телевизоров от Tuvio, TCL и Hisense названы лучшими до 17 тысяч рублей — Палач 05.12.2025 в 13:15
Бюджетные телевизоры поражают возможностями: не думал, что за такие деньги бывает такое

Подборка трёх доступных телевизоров до 17 тысяч рублей показывает, как бюджетный сегмент постепенно перенимает функции более дорогих моделей, сохраняя привлекательную цену.

Читать полностью »
Теневые каналы в Telegram живут в среднем семь месяцев — Лаборатория Касперского 05.12.2025 в 9:36
Лаборатория Касперского раскрыла правду: почему даже крупные теневые каналы в Telegram живут недолго

Kaspersky изучила 800+ теневых Telegram-каналов: в среднем они живут около семи месяцев. Почему блокировки усилились и куда уходят крупные сообщества?

Читать полностью »
Расширения WeTab и Infinity V+ собирали данные 4 млн пользователей — KOI Security 05.12.2025 в 8:57
Осторожно, обновление: как безобидное расширение после апдейта начало похищать ваши пароли

WeTab и Infinity V+ подозревают в скрытом сборе данных через обновления. Как работала "долгая" атака и почему пострадали миллионы пользователей?

Читать полностью »
Вредоносное ПО для Android закрепляется в системе — ТАСС 05.12.2025 в 8:23
Мошенники знают ваши слабые места: почему вы добровольно установите троян под видом YouTube Pro

Под видом "18+" и "расширенных" TikTok и YouTube пользователям подсовывают трояны. Как устроена сеть сайтов и что нашли операторы.

Читать полностью »
MacBook Air M1 признали актуальным в 2025 году — iGuides 04.12.2025 в 21:42
Этот недорогой MacBook снова все обсуждают — причина удивила даже опытных пользователей

Пользователи обсуждают, насколько старый MacBook Air M1 сохраняет актуальность на фоне падения цен и долгой поддержки macOS, и какие ограничения остаются заметными.

Читать полностью »