Помощь ИИ в терапии
Помощь ИИ в терапии
Олег Белов Опубликована сегодня в 1:44

Не машины станут опасными — а мы перестанем думать: тревожный прогноз от создателя ИИ

Андрей Карпаты заявил, что искусственный интеллект лишает людей способности принимать решения

Один из самых известных инженеров и исследователей в области искусственного интеллекта Андрей Карпаты, ранее работавший в Tesla, OpenAI и создававший фундаментальные подходы к обучению нейросетей, в новом интервью высказал тревожную мысль: человечество вступило в эпоху, когда технологии постепенно лишают нас способности принимать собственные решения.

По мнению Карпаты, современные языковые модели достигли феноменальной производительности, но их развитие идёт не по пути осознания, а по пути механического подражания.

"Современные модели не учатся, как люди. Они не думают, а лишь копируют поведение, подстраиваясь под ожидания", — сказал инженер.

"Это ужасный метод — просто всё, что было до него, ещё хуже"

Карпаты скептически оценивает популярный сегодня подход обучения с подкреплением (reinforcement learning), на котором основаны практически все крупные языковые модели. Этот метод позволяет ИИ корректировать свои ответы, получая обратную связь от тренеров и пользователей.

"Это ужасный метод. Просто всё, что было до него, — ещё хуже", — иронично заметил Карпаты.

Инженер объясняет, что обучение с подкреплением не создаёт настоящего понимания. Модель не осознаёт свои действия — она лишь подбирает статистически выгодные ответы, оптимизированные под человеческое одобрение.

Человек создаёт данные — ИИ их лишь копирует

Карпаты проводит чёткое различие между человеком и моделью.

Люди создают собственные данные: сопоставляют новый опыт с прошлым, ищут закономерности, совершают ошибки и делают выводы. Именно этот процесс формирует мышление.

ИИ же работает иначе — он имитирует процесс мышления, не обладая внутренней связностью или пониманием смысла. Это делает модели мощными инструментами, но лишёнными автономного сознания.

"Мы перестаём думать и выбирать сами"

Самая тревожная часть размышлений Карпаты — не о будущем машин, а о будущем людей.

Он отмечает, что современное общество уже делегировало искусственному интеллекту принятие решений в ключевых областях:
• алгоритмы соцсетей управляют тем, какие новости мы видим;
• рекомендательные системы формируют наши вкусы;
• модели прогнозируют спрос, политику, курс валют;
• AI уже участвует в диагностике и назначении лечения.

"Мы перестаём думать и выбирать сами", — предупреждает инженер.

Карпаты называет этот процесс "тихим вымиранием мышления" - постепенным ослаблением способности человека к критическому суждению и личному выбору.

Не восстание машин, а угасание разума

Вопреки популярным тревогам, Карпаты не верит, что в ближайшее время искусственный интеллект станет опасным в классическом смысле — что он восстанет или превратится в автономное сверхсознание.

По его оценке, до настоящего AGI (Artificial General Intelligence) остаётся не менее десяти лет. Но угроза, по его мнению, уже существует — она в обратном процессе: не машины становятся умнее, а люди становятся всё пассивнее.

Почему это происходит

Инженер связывает утрату самостоятельного мышления с двумя факторами:

  1. Удобство автоматизации. Мы всё чаще выбираем не делать выбор — ведь машина делает быстрее, точнее, проще.

  2. Иллюзия компетентности AI. Люди склонны переоценивать интеллект моделей и принимать их ответы как объективную истину, забывая, что ИИ не обладает пониманием, а лишь воспроизводит вероятностные паттерны.

Сравнение: мышление человека и модели

Критерий Человек Языковая модель
Источник знаний Собственный опыт и восприятие Набор текстов из прошлого опыта других
Процесс мышления Анализ, интуиция, смысловые связи Вероятностное предсказание следующего слова
Ошибки Способ познания и развития Недопустимы, корректируются фильтрами
Цель Понимание мира Удовлетворение пользовательского запроса

Ошибка → Последствие → Альтернатива

Ошибка: полностью доверять рекомендациям ИИ → Последствие: утрата способности к критическому анализу → Альтернатива: использовать ИИ как инструмент, а не источник истины.
Ошибка: измерять интеллект количеством параметров → Последствие: подмена понимания имитацией → Альтернатива: развивать подходы, в которых модель создаёт собственные данные и связи.

А что если Карпаты прав?

Если прогноз инженера сбудется, то общество рискует войти в эпоху когнитивной зависимости - когда человек перестаёт доверять себе и полагается на искусственный интеллект в любой сфере жизни.

Парадоксально, но в таком сценарии ИИ не станет угрожающим субъектом — он останется инструментом. А вот человек — постепенно потеряет статус субъекта мышления.

Плюсы и минусы эпохи AI-зависимости

Плюсы Минусы
Ускорение решений и снижение ошибок Потеря самостоятельности мышления
Массовая доступность знаний Деградация навыков анализа
Рост производительности Формирование "когнитивной лени"
Доступность технологий Манипуляция через алгоритмы

FAQ

Считает ли Карпаты, что ИИ опасен сам по себе?
Нет. Он считает, что опаснее — зависимость человека от машинных решений.

Почему инженер критикует обучение с подкреплением?
Потому что оно не создает понимания, а лишь оптимизирует поведение модели под ожидаемую награду.

Верит ли он в появление AGI в ближайшее время?
Нет, по его оценке, до настоящего искусственного разума минимум 10 лет.

Что Карпаты предлагает взамен?
Создание систем, которые не только повторяют данные, но и формируют собственный опыт взаимодействия.

Можно ли вернуть самостоятельность мышления?
Да — через осознанное использование технологий и развитие критического мышления.

Мифы и правда

Миф: AI уже думает как человек.
Правда: модели лишь воспроизводят статистические закономерности.

Миф: люди станут ненужны в будущем.
Правда: технологии лишь отражают уровень мышления тех, кто ими управляет.

Миф: появление AGI решит все проблемы человечества.
Правда: без способности думать критически мы не сможем даже задать правильные вопросы.

3 интересных факта

  1. Андрей Карпаты считается одним из архитекторов современных нейросетей и соавтором ключевых систем компьютерного зрения в Tesla.

  2. Он был одним из первых, кто предложил принцип "дифференцируемых программ" — моделей, способных обучаться на уровне кода.

  3. После ухода из OpenAI инженер регулярно выступает с публичными лекциями о будущем интеллекта и этике технологий.

Исторический контекст

Дискуссия о "вымывании мышления" началась ещё в 2010-х — с ростом зависимости от поисковых систем и социальных сетей. Но с появлением языковых моделей нового поколения ситуация вышла на новый уровень: теперь ИИ способен не просто предлагать контент, но влиять на процесс формирования мысли.

Подписывайтесь на NewsInfo.Ru

Читайте также

Скандал вокруг GPT-5: OpenAI признала, что модель не решала задачи Эрдёша сегодня в 2:34
Машина не врёт — она просто не понимает: громкий провал GPT-5 и урок для всех

OpenAI оказалась в центре скандала после заявления, что GPT-5 решила задачи Эрдёша. Почему сенсация оказалась ошибкой — и чему эта история научила индустрию искусственного интеллекта?

Читать полностью »
Имплантат помог пациентам с ВМД частично восстановить зрение — Science Corporation вчера в 17:17
Вернули зрение без магии: новый имплантат позволяет читать даже тем, кто уже ослеп

Имплантат Prima от Science Corporation возвращает зрение пациентам с макулярной дегенерацией. Как работает устройство и почему оно стало прорывом в офтальмологии?

Читать полностью »
Perplexity запустил бесплатное обучение иностранным языкам в браузере и на iPhone вчера в 16:21
Учитель английского в кармане: Perplexity бросил вызов Duolingo

ИИ-поисковик Perplexity превращается в бесплатную платформу для изучения языков: мгновенные переводы, произношение и карточки в одном интерфейсе.

Читать полностью »
В Windows появится функция Ask Copilot на замену стандартному поиску — Microsoft вчера в 15:17
"Спроси, и он ответит": Microsoft убирает привычный поиск из Windows — что теперь будет

Microsoft объявила о замене стандартного поиска Windows на Ask Copilot — интеллектуального помощника, встроенного прямо в панель задач. Что умеет новая функция и как она изменит работу в системе?

Читать полностью »
Apple добавила настройку прозрачности Liquid Glass в бета-версии iOS 26.1 вчера в 14:36
Айфон стал слишком прозрачным? Apple решила подправить собственную красоту

Apple добавила в iOS 26.1 настройку, позволяющую выбирать степень прозрачности интерфейса Liquid Glass. Теперь пользователи сами решают, насколько «стеклянной» будет их система.

Читать полностью »
Аналитики StatCounter сообщили о росте числа устройств с Windows 7 вчера в 13:26
Вместо обновления — откат: почему миллионы выбрали Windows 7 и отвернулись от 11-й

StatCounter зафиксировал резкое падение доли Windows 10 и 11 и неожиданное «воскрешение» Windows 7. Почему пользователи не спешат обновляться и чем тут заинтересовал Zorin OS?

Читать полностью »
ИИ трансформирует финансовую индустрию — от инвестиций до банковской аналитики вчера в 12:19
Советник без эмоций и комиссии: как ИИ меняет то, как мы управляем капиталом

Искусственный интеллект превращает финансы в новую технологическую арену: кто выигрывает от алгоритмов, а кто теряет контроль над рынком?

Читать полностью »
Продажи Pearson выросли на 4% — рост обеспечили онлайн-курсы с искусственным интеллектом вчера в 11:16
Алгоритм в помощь учителю: как Pearson нашла способ внедрить ИИ и не провалиться

Pearson показывает, как искусственный интеллект способен изменить образование: от чат-ботов до персонализированных курсов. Но сможет ли технология стать основой новой прибыльной модели?

Читать полностью »