Помощь ИИ в терапии
Помощь ИИ в терапии
Олег Белов Опубликована сегодня в 9:27

ИИ не станет сверхразумом завтра: Карпатый рассказал, что пойдёт не так

Андрей Карпатый объяснил, почему искусственный интеллект ещё далёк от уровня AGI

Один из самых известных специалистов по искусственному интеллекту, Андрей Карпатый - бывший директор по ИИ в Tesla, участник ранней команды OpenAI и основатель стартапа Eureka Labs - дал обстоятельное интервью подкастеру Дваркешу Пателю. В разговоре он объяснил, почему, несмотря на бурный прогресс последних лет, создание полноценного AGI (Artificial General Intelligence) — дело не ближайшего будущего.

По словам Карпатого, на доведение современных архитектур до уровня "универсального разума" уйдёт не менее десяти лет. При этом фундамент останется тем же — трансформеры, но их развитие потребует колоссальных усилий и времени.

Почему AGI — не завтра

Карпатый подчеркнул, что многие переоценивают скорость эволюции искусственного интеллекта. Он напомнил, что в технологическом развитии ИИ не существует магического скачка, который за одно обновление превратит модель в сверхразум. Прогресс идёт постепенно, и каждый новый процент надёжности требует несоразмерно больших затрат ресурсов и времени.

В качестве примера он привёл опыт Tesla. В компании инженеры стремились к "маршу девяток" — последовательному повышению точности автономного вождения.

"Демо, которое работает в 90% случаев, — это только первая девятка. Чтобы достичь 99% и 99,9%, нужно пройти долгий и трудный путь", — пояснил Андрей Карпатый.

Он добавил, что с ИИ происходит то же самое: модели вроде GPT-5 или Claude Sonnet создают впечатление огромного скачка, но до стабильной, надёжной работы в реальных сценариях им ещё далеко.

Иллюзия "года агентов"

Карпатый не согласен с оптимистичной позицией главы OpenAI Сэма Альтмана, который назвал 2025 год "годом ИИ-агентов". По мнению Андрея, ближайшее десятилетие будет не временем прорыва, а этапом кропотливой доводки.

Современные ИИ-агенты, по его словам, можно сравнить со стажёрами на испытательном сроке: они умеют выполнять отдельные задачи, но не способны к самостоятельному мышлению, накоплению опыта и адаптации к реальности.

"Хороший агент — это как сотрудник, который понимает контекст, учится на ошибках и действует осознанно. Наши системы пока далеки от этого", — отметил Андрей Карпатый.

Он добавил, что нынешние модели страдают от отсутствия непрерывного обучения, ограниченной мультимодальности и дефицита здравого смысла — того, что позволяет людям понимать последовательность событий во времени и причинно-следственные связи.

Проблемы текущего подхода

Среди основных препятствий Карпатый выделил несовершенство алгоритмов обучения с подкреплением (reinforcement learning). Эта методика широко используется при обучении языковых моделей, но имеет серьёзные ограничения.

"Reinforcement learning — это как всасывать знания через соломинку: модель делает миллионы действий и получает лишь один сигнал — "хорошо” или "плохо”", — объяснил Андрей Карпатый.

Он подчеркнул, что человек учится иначе: постоянно оценивает свои решения, анализирует промежуточные шаги и корректирует поведение. Чтобы искусственный интеллект приблизился к такому типу мышления, ему нужен механизм саморефлексии — способность понимать, почему результат получился правильным или ошибочным.

Сравнение подходов

Подход Принцип Сильные стороны Недостатки
Reinforcement Learning Вознаграждение за финальный результат Хорошо работает в играх и замкнутых системах Слабо применим к сложным задачам с размытой обратной связью
Обучение с примерами (Supervised Learning) Использование готовых ответов Быстрая настройка моделей Не развивает самостоятельное мышление
Обучение с рефлексией (будущий подход) Анализ собственных ошибок Возможность самообучения Пока не реализовано в масштабах LLM

Советы шаг за шагом: как продвигается путь к AGI

  1. Улучшение памяти. Модели должны научиться сохранять контекст не только в рамках одной сессии, но и на протяжении месяцев.

  2. Мультимодальность. Объединение текста, изображений, видео и звука в единую систему восприятия.

  3. Рефлексия. Создание механизма самоанализа действий модели.

  4. Непрерывное обучение. ИИ должен развиваться от опыта к опыту, а не зависеть от "обновлений версий".

  5. Этика и безопасность. По мере роста возможностей критически важно внедрять системы контроля и интерпретации решений.

Ошибка → Последствие → Альтернатива

  • Ошибка: полагаться только на техническое совершенство архитектуры.
    Последствие: ИИ не понимает контекст и смысл действий.
    Альтернатива: развитие когнитивных компонентов — логики, памяти, планирования.

  • Ошибка: игнорирование безопасности и интерпретируемости.
    Последствие: невозможность объяснить поведение модели.
    Альтернатива: интеграция прозрачных систем отслеживания решений.

  • Ошибка: стремление ускорить разработку ради эффектных демо.
    Последствие: создание нестабильных прототипов, не пригодных для реального мира.
    Альтернатива: постепенная оптимизация с ориентацией на долгосрочную надёжность.

А что если Карпатый прав?

Если развитие ИИ действительно займёт десятилетие, как прогнозирует эксперт, то индустрии предстоит долгий период "шлифовки". Это может привести к более устойчивому росту рынка, где внимание сместится с демонстраций и хайпа к реальной эффективности и безопасности. Компании, инвестирующие в фундаментальные исследования, получат преимущество, а пользователи — более надёжные системы.

Плюсы и минусы долгого пути к AGI

Плюсы Минусы
Более надёжные и безопасные системы Медленное внедрение инноваций
Глубокое понимание принципов обучения Потеря медийного интереса
Возможность этического регулирования Высокая стоимость исследований

FAQ

— Почему Карпатый уверен, что AGI не появится раньше десяти лет?
Он считает, что текущие архитектуры уже уперлись в пределы масштабирования, и теперь требуется качественная эволюция, а не просто увеличение параметров.

— Что такое "марш девяток"?
Это метафора постепенного повышения надёжности: от 90% до 99,9%. Каждая новая "девятка" требует экспоненциально больше усилий.

— Согласен ли он с Сэмом Альтманом?
Нет. Он полагает, что 2025 год не станет "годом агентов", а лишь продолжением длительного процесса их совершенствования.

Мифы и правда

Миф: AGI уже почти создано.
Правда: современные модели впечатляют, но далеки от понимания и осознания мира.

Миф: больше параметров — значит умнее.
Правда: масштаб помогает, но не решает проблему рефлексии и обучения в реальном времени.

Миф: ИИ способен заменить человека во всех профессиях.
Правда: большинство моделей по-прежнему не умеют мыслить абстрактно и планировать вне заданных сценариев.

Исторический контекст

Идея создания универсального интеллекта обсуждается с 1950-х годов. Первые попытки — программы Лиспа и экспертные системы — провалились из-за отсутствия вычислительных мощностей. Прорывом стали трансформеры (2017 год), открывшие путь моделям нового поколения. Сегодня ИИ умеет писать тексты, код, рисовать и анализировать данные, но до осознанного мышления ему всё ещё далеко.

Подписывайтесь на NewsInfo.Ru

Читайте также

Пользователи сообщили, что Gemini 3.0 Pro создаёт рабочие игровые прототипы без кода сегодня в 10:17
Что умеет модель, которой Google ещё не представила: первые сливки с Gemini 3.0 Pro

Пользователи AI Studio находят следы новой модели Gemini 3.0 Pro. Она создаёт клоны игр, улучшает код и работает заметно лучше 2.5-й версии. Когда ждать официальный релиз?

Читать полностью »
Искусственный интеллект DeepSeek V-3.1 возглавил рейтинг Alpha Arena после первых торгов сегодня в 8:27
Биржа против мозга: как ИИ-модели сражаются за прибыль — и кто уже влетел в минус

DeepSeek за сутки заработал $800 в новом эксперименте Alpha Arena, где ИИ-системы вроде GPT-5 и Claude соревнуются в криптотрейдинге. Кто станет лучшим трейдером?

Читать полностью »
Смерть подростка в Челябинске: эксперты объяснили, чем опасны дешёвые зарядки и удлинители сегодня в 7:36
Смартфон не убивает — но розетка рядом может: как не погибнуть из-за зарядки

Почему «безобидная» зарядка может стать смертельно опасной? Разбираем, как 220 В попадают на телефон, чем грозит мороз и жара, и даём пошаговую памятку безопасности.

Читать полностью »
Работа с ИИ стала базовым требованием на рынке труда — исследование hh.ru сегодня в 6:34
ИИ — это уже не плюс, а обязанность: кого не берут на работу без навыков нейросетей

Искусственный интеллект уже влияет на рынок труда. Какие навыки помогут оставаться востребованным и как освоить их без технического образования?

Читать полностью »
В Китае разработали микроробота, способного перемещать клетки и частицы сегодня в 5:56
Фантастика стала пылинкой: микроробот захватывает клетки и слушается магнит

Китайские инженеры создали микроробота размером с волос, способного доставлять клетки и лекарства с точностью хирурга будущего.

Читать полностью »
Инструкция: что включать в подсказку к ИИ, чтобы получить точный ответ сегодня в 4:46
Промпт — это новый навык письма: как правильно разговаривать с ИИ, чтобы он не нёс чепуху

Хотите получать от ChatGPT не «водичку», а точные ответы? Разбираем, как писать подсказки: роли, аудитории, примеры-эталоны и пошаговые шаблоны.

Читать полностью »
Apple вплотную приблизилась к Samsung по продажам смартфонов — данные IDC сегодня в 3:37
Смартфон за $1000 против армии бюджетников: как Apple почти победила

Apple поставила рекорд по продажам iPhone 17 и почти догнала Samsung. Почему корейский бренд всё ещё впереди и кто может возглавить рынок в 2026 году.

Читать полностью »
Аналитики Jefferies: миллионы iPhone для США продолжат собирать в Китае, несмотря на перенос в Индию сегодня в 2:26
Индустрия ждала бегства, но Apple осталась: почему Китай держит её мёртвой хваткой

Несмотря на планы полного переноса сборки в Индию, миллионы iPhone для США всё ещё делают в Китае. Это может дорого обойтись Apple после введения новых пошлин.

Читать полностью »