
Не машины станут опасными — а мы перестанем думать: тревожный прогноз от создателя ИИ
Один из самых известных инженеров и исследователей в области искусственного интеллекта Андрей Карпаты, ранее работавший в Tesla, OpenAI и создававший фундаментальные подходы к обучению нейросетей, в новом интервью высказал тревожную мысль: человечество вступило в эпоху, когда технологии постепенно лишают нас способности принимать собственные решения.
По мнению Карпаты, современные языковые модели достигли феноменальной производительности, но их развитие идёт не по пути осознания, а по пути механического подражания.
"Современные модели не учатся, как люди. Они не думают, а лишь копируют поведение, подстраиваясь под ожидания", — сказал инженер.
"Это ужасный метод — просто всё, что было до него, ещё хуже"
Карпаты скептически оценивает популярный сегодня подход обучения с подкреплением (reinforcement learning), на котором основаны практически все крупные языковые модели. Этот метод позволяет ИИ корректировать свои ответы, получая обратную связь от тренеров и пользователей.
"Это ужасный метод. Просто всё, что было до него, — ещё хуже", — иронично заметил Карпаты.
Инженер объясняет, что обучение с подкреплением не создаёт настоящего понимания. Модель не осознаёт свои действия — она лишь подбирает статистически выгодные ответы, оптимизированные под человеческое одобрение.
Человек создаёт данные — ИИ их лишь копирует
Карпаты проводит чёткое различие между человеком и моделью.
Люди создают собственные данные: сопоставляют новый опыт с прошлым, ищут закономерности, совершают ошибки и делают выводы. Именно этот процесс формирует мышление.
ИИ же работает иначе — он имитирует процесс мышления, не обладая внутренней связностью или пониманием смысла. Это делает модели мощными инструментами, но лишёнными автономного сознания.
"Мы перестаём думать и выбирать сами"
Самая тревожная часть размышлений Карпаты — не о будущем машин, а о будущем людей.
Он отмечает, что современное общество уже делегировало искусственному интеллекту принятие решений в ключевых областях:
• алгоритмы соцсетей управляют тем, какие новости мы видим;
• рекомендательные системы формируют наши вкусы;
• модели прогнозируют спрос, политику, курс валют;
• AI уже участвует в диагностике и назначении лечения.
"Мы перестаём думать и выбирать сами", — предупреждает инженер.
Карпаты называет этот процесс "тихим вымиранием мышления" - постепенным ослаблением способности человека к критическому суждению и личному выбору.
Не восстание машин, а угасание разума
Вопреки популярным тревогам, Карпаты не верит, что в ближайшее время искусственный интеллект станет опасным в классическом смысле — что он восстанет или превратится в автономное сверхсознание.
По его оценке, до настоящего AGI (Artificial General Intelligence) остаётся не менее десяти лет. Но угроза, по его мнению, уже существует — она в обратном процессе: не машины становятся умнее, а люди становятся всё пассивнее.
Почему это происходит
Инженер связывает утрату самостоятельного мышления с двумя факторами:
-
Удобство автоматизации. Мы всё чаще выбираем не делать выбор — ведь машина делает быстрее, точнее, проще.
-
Иллюзия компетентности AI. Люди склонны переоценивать интеллект моделей и принимать их ответы как объективную истину, забывая, что ИИ не обладает пониманием, а лишь воспроизводит вероятностные паттерны.
Сравнение: мышление человека и модели
Критерий | Человек | Языковая модель |
Источник знаний | Собственный опыт и восприятие | Набор текстов из прошлого опыта других |
Процесс мышления | Анализ, интуиция, смысловые связи | Вероятностное предсказание следующего слова |
Ошибки | Способ познания и развития | Недопустимы, корректируются фильтрами |
Цель | Понимание мира | Удовлетворение пользовательского запроса |
Ошибка → Последствие → Альтернатива
• Ошибка: полностью доверять рекомендациям ИИ → Последствие: утрата способности к критическому анализу → Альтернатива: использовать ИИ как инструмент, а не источник истины.
• Ошибка: измерять интеллект количеством параметров → Последствие: подмена понимания имитацией → Альтернатива: развивать подходы, в которых модель создаёт собственные данные и связи.
А что если Карпаты прав?
Если прогноз инженера сбудется, то общество рискует войти в эпоху когнитивной зависимости - когда человек перестаёт доверять себе и полагается на искусственный интеллект в любой сфере жизни.
Парадоксально, но в таком сценарии ИИ не станет угрожающим субъектом — он останется инструментом. А вот человек — постепенно потеряет статус субъекта мышления.
Плюсы и минусы эпохи AI-зависимости
Плюсы | Минусы |
Ускорение решений и снижение ошибок | Потеря самостоятельности мышления |
Массовая доступность знаний | Деградация навыков анализа |
Рост производительности | Формирование "когнитивной лени" |
Доступность технологий | Манипуляция через алгоритмы |
FAQ
Считает ли Карпаты, что ИИ опасен сам по себе?
Нет. Он считает, что опаснее — зависимость человека от машинных решений.
Почему инженер критикует обучение с подкреплением?
Потому что оно не создает понимания, а лишь оптимизирует поведение модели под ожидаемую награду.
Верит ли он в появление AGI в ближайшее время?
Нет, по его оценке, до настоящего искусственного разума минимум 10 лет.
Что Карпаты предлагает взамен?
Создание систем, которые не только повторяют данные, но и формируют собственный опыт взаимодействия.
Можно ли вернуть самостоятельность мышления?
Да — через осознанное использование технологий и развитие критического мышления.
Мифы и правда
• Миф: AI уже думает как человек.
Правда: модели лишь воспроизводят статистические закономерности.
• Миф: люди станут ненужны в будущем.
Правда: технологии лишь отражают уровень мышления тех, кто ими управляет.
• Миф: появление AGI решит все проблемы человечества.
Правда: без способности думать критически мы не сможем даже задать правильные вопросы.
3 интересных факта
-
Андрей Карпаты считается одним из архитекторов современных нейросетей и соавтором ключевых систем компьютерного зрения в Tesla.
-
Он был одним из первых, кто предложил принцип "дифференцируемых программ" — моделей, способных обучаться на уровне кода.
-
После ухода из OpenAI инженер регулярно выступает с публичными лекциями о будущем интеллекта и этике технологий.
Исторический контекст
Дискуссия о "вымывании мышления" началась ещё в 2010-х — с ростом зависимости от поисковых систем и социальных сетей. Но с появлением языковых моделей нового поколения ситуация вышла на новый уровень: теперь ИИ способен не просто предлагать контент, но влиять на процесс формирования мысли.
Подписывайтесь на NewsInfo.Ru