Помощь ИИ в терапии
Помощь ИИ в терапии
Олег Белов Опубликована 22.10.2025 в 1:44

Не машины станут опасными — а мы перестанем думать: тревожный прогноз от создателя ИИ

Андрей Карпаты заявил, что искусственный интеллект лишает людей способности принимать решения

Один из самых известных инженеров и исследователей в области искусственного интеллекта Андрей Карпаты, ранее работавший в Tesla, OpenAI и создававший фундаментальные подходы к обучению нейросетей, в новом интервью высказал тревожную мысль: человечество вступило в эпоху, когда технологии постепенно лишают нас способности принимать собственные решения.

По мнению Карпаты, современные языковые модели достигли феноменальной производительности, но их развитие идёт не по пути осознания, а по пути механического подражания.

"Современные модели не учатся, как люди. Они не думают, а лишь копируют поведение, подстраиваясь под ожидания", — сказал инженер.

"Это ужасный метод — просто всё, что было до него, ещё хуже"

Карпаты скептически оценивает популярный сегодня подход обучения с подкреплением (reinforcement learning), на котором основаны практически все крупные языковые модели. Этот метод позволяет ИИ корректировать свои ответы, получая обратную связь от тренеров и пользователей.

"Это ужасный метод. Просто всё, что было до него, — ещё хуже", — иронично заметил Карпаты.

Инженер объясняет, что обучение с подкреплением не создаёт настоящего понимания. Модель не осознаёт свои действия — она лишь подбирает статистически выгодные ответы, оптимизированные под человеческое одобрение.

Человек создаёт данные — ИИ их лишь копирует

Карпаты проводит чёткое различие между человеком и моделью.

Люди создают собственные данные: сопоставляют новый опыт с прошлым, ищут закономерности, совершают ошибки и делают выводы. Именно этот процесс формирует мышление.

ИИ же работает иначе — он имитирует процесс мышления, не обладая внутренней связностью или пониманием смысла. Это делает модели мощными инструментами, но лишёнными автономного сознания.

"Мы перестаём думать и выбирать сами"

Самая тревожная часть размышлений Карпаты — не о будущем машин, а о будущем людей.

Он отмечает, что современное общество уже делегировало искусственному интеллекту принятие решений в ключевых областях:
• алгоритмы соцсетей управляют тем, какие новости мы видим;
• рекомендательные системы формируют наши вкусы;
• модели прогнозируют спрос, политику, курс валют;
• AI уже участвует в диагностике и назначении лечения.

"Мы перестаём думать и выбирать сами", — предупреждает инженер.

Карпаты называет этот процесс "тихим вымиранием мышления" - постепенным ослаблением способности человека к критическому суждению и личному выбору.

Не восстание машин, а угасание разума

Вопреки популярным тревогам, Карпаты не верит, что в ближайшее время искусственный интеллект станет опасным в классическом смысле — что он восстанет или превратится в автономное сверхсознание.

По его оценке, до настоящего AGI (Artificial General Intelligence) остаётся не менее десяти лет. Но угроза, по его мнению, уже существует — она в обратном процессе: не машины становятся умнее, а люди становятся всё пассивнее.

Почему это происходит

Инженер связывает утрату самостоятельного мышления с двумя факторами:

  1. Удобство автоматизации. Мы всё чаще выбираем не делать выбор — ведь машина делает быстрее, точнее, проще.

  2. Иллюзия компетентности AI. Люди склонны переоценивать интеллект моделей и принимать их ответы как объективную истину, забывая, что ИИ не обладает пониманием, а лишь воспроизводит вероятностные паттерны.

Сравнение: мышление человека и модели

Критерий Человек Языковая модель
Источник знаний Собственный опыт и восприятие Набор текстов из прошлого опыта других
Процесс мышления Анализ, интуиция, смысловые связи Вероятностное предсказание следующего слова
Ошибки Способ познания и развития Недопустимы, корректируются фильтрами
Цель Понимание мира Удовлетворение пользовательского запроса

Ошибка → Последствие → Альтернатива

Ошибка: полностью доверять рекомендациям ИИ → Последствие: утрата способности к критическому анализу → Альтернатива: использовать ИИ как инструмент, а не источник истины.
Ошибка: измерять интеллект количеством параметров → Последствие: подмена понимания имитацией → Альтернатива: развивать подходы, в которых модель создаёт собственные данные и связи.

А что если Карпаты прав?

Если прогноз инженера сбудется, то общество рискует войти в эпоху когнитивной зависимости - когда человек перестаёт доверять себе и полагается на искусственный интеллект в любой сфере жизни.

Парадоксально, но в таком сценарии ИИ не станет угрожающим субъектом — он останется инструментом. А вот человек — постепенно потеряет статус субъекта мышления.

Плюсы и минусы эпохи AI-зависимости

Плюсы Минусы
Ускорение решений и снижение ошибок Потеря самостоятельности мышления
Массовая доступность знаний Деградация навыков анализа
Рост производительности Формирование "когнитивной лени"
Доступность технологий Манипуляция через алгоритмы

FAQ

Считает ли Карпаты, что ИИ опасен сам по себе?
Нет. Он считает, что опаснее — зависимость человека от машинных решений.

Почему инженер критикует обучение с подкреплением?
Потому что оно не создает понимания, а лишь оптимизирует поведение модели под ожидаемую награду.

Верит ли он в появление AGI в ближайшее время?
Нет, по его оценке, до настоящего искусственного разума минимум 10 лет.

Что Карпаты предлагает взамен?
Создание систем, которые не только повторяют данные, но и формируют собственный опыт взаимодействия.

Можно ли вернуть самостоятельность мышления?
Да — через осознанное использование технологий и развитие критического мышления.

Мифы и правда

Миф: AI уже думает как человек.
Правда: модели лишь воспроизводят статистические закономерности.

Миф: люди станут ненужны в будущем.
Правда: технологии лишь отражают уровень мышления тех, кто ими управляет.

Миф: появление AGI решит все проблемы человечества.
Правда: без способности думать критически мы не сможем даже задать правильные вопросы.

3 интересных факта

  1. Андрей Карпаты считается одним из архитекторов современных нейросетей и соавтором ключевых систем компьютерного зрения в Tesla.

  2. Он был одним из первых, кто предложил принцип "дифференцируемых программ" — моделей, способных обучаться на уровне кода.

  3. После ухода из OpenAI инженер регулярно выступает с публичными лекциями о будущем интеллекта и этике технологий.

Исторический контекст

Дискуссия о "вымывании мышления" началась ещё в 2010-х — с ростом зависимости от поисковых систем и социальных сетей. Но с появлением языковых моделей нового поколения ситуация вышла на новый уровень: теперь ИИ способен не просто предлагать контент, но влиять на процесс формирования мысли.

Подписывайтесь на NewsInfo.Ru

Читайте также

Бумагу можно переработать до шести раз — эколог Пешков сегодня в 13:35
Пакет против пластика: какой пакет в магазине на самом деле стоит выбирать

Эколог Андрей Пешков пояснил NewsInfo, почему бумажные пакеты экологичнее пластиковых.

Читать полностью »
Православный мессенджер Зосима выйдет в первой половине 2026 года — Агапов 06.12.2025 в 7:57
Секретный проект раскрыт: Зосима выйдет в 2026-м и обещает стать главным духовным каналом

Православный мессенджер "Зосима" готовят к публичному запуску в 2026-м: тест уже прошли тысячи пользователей, а дальше всё решит масштабирование.

Читать полностью »
Конфликт приложений может замедлять работу гаджета — IT-эксперт Муртазин 05.12.2025 в 13:34
Когда телефон живет своей жизнью: из-за этих процессов гаджет начинает тормозить

Аналитик Эльдар Муртазин объяснил NewsInfo почему телефон может перегреваться и "тормозить".

Читать полностью »
Pokemon TCG Pocket признана лучшей игрой для iPhone — App Store Awards 2025 05.12.2025 в 13:25
Игры и приложения года раскрыты: пользователи не ожидали такого расклада от Apple

Премия App Store Awards 2025 изменила расстановку сил между крупными студиями и независимыми разработчиками, показав неожиданные приоритеты индустрии.

Читать полностью »
Модели телевизоров от Tuvio, TCL и Hisense названы лучшими до 17 тысяч рублей — Палач 05.12.2025 в 13:15
Бюджетные телевизоры поражают возможностями: не думал, что за такие деньги бывает такое

Подборка трёх доступных телевизоров до 17 тысяч рублей показывает, как бюджетный сегмент постепенно перенимает функции более дорогих моделей, сохраняя привлекательную цену.

Читать полностью »
Теневые каналы в Telegram живут в среднем семь месяцев — Лаборатория Касперского 05.12.2025 в 9:36
Лаборатория Касперского раскрыла правду: почему даже крупные теневые каналы в Telegram живут недолго

Kaspersky изучила 800+ теневых Telegram-каналов: в среднем они живут около семи месяцев. Почему блокировки усилились и куда уходят крупные сообщества?

Читать полностью »
Расширения WeTab и Infinity V+ собирали данные 4 млн пользователей — KOI Security 05.12.2025 в 8:57
Осторожно, обновление: как безобидное расширение после апдейта начало похищать ваши пароли

WeTab и Infinity V+ подозревают в скрытом сборе данных через обновления. Как работала "долгая" атака и почему пострадали миллионы пользователей?

Читать полностью »
Вредоносное ПО для Android закрепляется в системе — ТАСС 05.12.2025 в 8:23
Мошенники знают ваши слабые места: почему вы добровольно установите троян под видом YouTube Pro

Под видом "18+" и "расширенных" TikTok и YouTube пользователям подсовывают трояны. Как устроена сеть сайтов и что нашли операторы.

Читать полностью »