Искусственный интеллект
Искусственный интеллект
Олег Белов Опубликована сегодня в 4:46

ИИ должен замолчать: Возняк, Хинтон и Брэнсон требуют остановить машины, пока не поздно

Стив Возняк, Хинтон и Бенджио подписали обращение о приостановке исследований сверхинтеллекта

22 октября 2025 года Институт "Будущее жизни" (Future of Life Institute, FLI) опубликовал новый документ под названием "Заявление о сверхинтеллекте" - обращение к мировому научному и технологическому сообществу с требованием временно приостановить разработку искусственного интеллекта, способного превзойти человека в большинстве интеллектуальных задач.

Под документом стоят подписи известных деятелей науки, политики и бизнеса, включая Стива Возняка, Стива Бэннона, нобелевских лауреатов Йошуа Бенджио и Джеффри Хинтона, а также Ричарда Брэнсона, принца Гарри и Меган Маркл.

"Человечество должно убедиться, что сверхинтеллект безопасен и поддаётся контролю, прежде чем пересечёт точку невозврата", — отмечается в заявлении FLI.

Что предлагает "Заявление о сверхинтеллекте"

Авторы инициативы призывают остановить исследования и тестирование систем, способных к общему сверхинтеллекту (AGI), до выполнения двух ключевых условий:

  1. Научный консенсус о безопасности таких систем и методах их контроля.

  2. Общественный мандат, то есть широкое согласие человечества на продолжение подобных разработок.

В тексте подчёркивается, что быстрый прогресс в области ИИ угрожает не только сфере труда и свободе личности, но и "достоинству человека и самому выживанию цивилизации".

Кто подписал документ

Подписи под "Заявлением о сверхинтеллекте" поставили представители разных областей — от технологического бизнеса до политики и гуманитарных наук. Среди них:

  • Стив Возняк, сооснователь Apple;

  • Стив Бэннон, политический стратег;

  • Йошуа Бенджио и Джеффри Хинтон, пионеры глубинного обучения;

  • Ричард Брэнсон, основатель Virgin Group;

  • принц Гарри и Меган Маркл.

Такой широкий список показывает, что опасения относительно ИИ выходят за рамки технологического сектора и становятся глобальным общественным вопросом.

Продолжение мартовского письма 2023 года

Это не первое обращение FLI к мировым компаниям. Весной 2023 года институт опубликовал открытое письмо с призывом объявить шестимесячную паузу в обучении моделей мощнее GPT-4. Тогда инициатива вызвала бурные дискуссии, но ни одна крупная компания (включая OpenAI, Google и Anthropic) фактически её не поддержала.

Теперь FLI идёт дальше — речь идёт не просто о паузе, а о моратории без конкретного срока, который может быть снят только после появления научных гарантий безопасности.

Почему это важно сейчас

С момента публикации предыдущего письма ИИ-индустрия прошла несколько ключевых этапов:

  • Появление многоагентных систем с автономным планированием и действиями в реальном мире;

  • Рост вычислительных мощностей, необходимых для обучения крупных моделей;

  • Активное внедрение ИИ в системы государственного управления, образования и здравоохранения.

FLI предупреждает, что эти тенденции могут привести к созданию систем, способных принимать решения без человеческого контроля - от финансовых операций до военных задач.

Основные тезисы заявления

Пункт Содержание
Цель Временная остановка исследований сверхинтеллекта
Продолжительность До достижения научного консенсуса и общественного согласия
Обоснование Риски для труда, свободы, достоинства и выживания человечества
Характер документа Нейтральный, не антиискусственный, направлен на безопасность
Предыдущий документ Письмо о "передышке" для GPT-4 (март 2023 года)

Каковы потенциальные риски сверхинтеллекта

FLI и соавторы заявления выделяют несколько направлений угроз:

  • Экономические - вытеснение людей из ключевых профессий и концентрация капитала у разработчиков ИИ.

  • Политические - возможность манипуляции информацией и общественным мнением.

  • Этические - отсутствие прозрачности в принятии решений нейросетями.

  • Экзистенциальные - риск того, что сверхинтеллект выйдет из-под контроля и поставит под угрозу человечество.

Организация не предлагает отказаться от ИИ как технологии, а требует ввести механизмы контроля и "тормозы безопасности", прежде чем двигаться дальше.

Ошибка → Последствие → Альтернатива

Ошибка Последствие Альтернатива
Игнорировать риски сверхинтеллекта Потенциальная потеря контроля над системами Ввести мораторий до появления надёжных методов контроля
Сосредоточиться только на коммерческой выгоде Усиление неравенства и этических конфликтов Формировать международные стандарты регулирования
Отложить обсуждение до появления угроз Опоздание с мерами безопасности Создание глобальной этической платформы для диалога

А что если мораторий всё же введут?

Если инициативу FLI поддержат правительства или международные организации, это станет первым в истории ограничением на фундаментальные исследования ИИ.
Однако реализация такой меры потребует согласованности между ведущими державами — США, ЕС, Китаем и Индией, что пока представляется маловероятным.

С другой стороны, подобный шаг может ускорить создание международного регулятора по ИИ, аналогичного МАГАТЭ в сфере атомной энергетики.

Плюсы и минусы инициативы

Плюсы Минусы
Повышение уровня общественного контроля Замедление научного прогресса
Стимулирование разработки безопасных стандартов Риск ухода исследований "в тень"
Привлечение внимания политиков и общества Отсутствие единых критериев "сверхинтеллекта"
Возможность формирования международного договора Сложность реализации в условиях конкуренции

Исторический контекст

Институт "Будущее жизни" был основан в 2014 году группой исследователей, в числе которых Макс Тегмарк и Йошуа Бенджио. Организация известна своими инициативами в области этики ИИ и глобальной безопасности.
В 2015 году FLI уже публиковал "Письмо об опасностях неконтролируемого ИИ", подписанное Илон Маском и Стивеном Хокингом. С тех пор институт остаётся одним из ключевых центров дискуссий о безопасном развитии искусственного интеллекта.

Интересные факты

  1. Текст заявления умещается на две страницы и написан намеренно без сложных терминов — чтобы его могли подписать не только учёные, но и общественные деятели.

  2. Среди подписантов — представители более чем 40 стран.

  3. FLI планирует направить документ в ООН, Европейскую комиссию и Белый дом для рассмотрения на уровне политики.

FAQ

Что такое "сверхинтеллект" в понимании FLI?
Это система, превосходящая человека в большинстве интеллектуальных задач — от логического рассуждения до научного анализа и творчества.

Означает ли это запрет на обычные ИИ-системы?
Нет. Речь идёт только о разработке моделей, близких к общему или сверхчеловеческому интеллекту.

Есть ли шанс, что правительства поддержат инициативу?
Пока документ имеет декларативный характер, но может стать основой для будущих международных соглашений.

Подписывайтесь на NewsInfo.Ru

Читайте также

Аналитик Omdia: Apple пропустит iPhone 19 из-за 20-летия первого iPhone сегодня в 15:46
Apple пропустит iPhone 19: в 2027-м нас ждёт не смартфон, а юбилейный переворот

Apple готовит юбилейный сюрприз: компания пропустит iPhone 19 и выпустит iPhone 20 к 20-летию легендарного смартфона. Что известно о грядущем флагмане — в материале.

Читать полностью »
iPhone Air проработал почти 10 часов без подзарядки — тест PhoneBuff сегодня в 14:58
Мини-гигант: батарея тонкого iPhone Air удивила даже экспертов

Сверхтонкий iPhone Air удивил своей автономностью, превзойдя даже базовый iPhone 17, несмотря на меньший аккумулятор и компактный корпус.

Читать полностью »
Microsoft подтвердила: новая Xbox уже в разработке — заявление Сары Бонд сегодня в 13:38
Microsoft делает ставку на $1000: новая Xbox станет самой дорогой и самой мощной в истории

Сара Бонд подтвердила: Microsoft разрабатывает новую Xbox. Что известно о премиальной консоли, её цене и сроках выхода — в подробном обзоре.

Читать полностью »
Android Authority: владельцы Pixel критикуют Google за отказы в гарантийном ремонте сегодня в 12:12
Pixel ломается — Google отказывается: как поддержка превратила идеальный Android в разочарование

Пользователи Google Pixel массово жалуются на отказ в гарантийном ремонте. Почему владельцы считают техподдержку Google худшей на рынке — в материале.

Читать полностью »
Илон Маск потребовал больше контроля в Tesla из-за проекта роботов Optimus — Electrek сегодня в 10:17
Контроль или хаос: Маск требует абсолютной власти, прежде чем включить армию роботов

Илон Маск заявил, что хочет контролировать армию роботов Tesla. Почему его слова вызвали тревогу у инвесторов и экспертов — разбираемся.

Читать полностью »
Microsoft заблокировала Quick Preview для документов, загруженных из интернета сегодня в 8:36
Обычный файл стал подозрительным: Windows 11 перестала доверять вашим загрузкам

Новое обновление Windows 11 неожиданно изменило работу File Explorer — теперь нельзя быстро просматривать файлы, скачанные из интернета.

Читать полностью »
DeepSeek представила систему DeepSeek-OCR с визуальным кодированием текста сегодня в 6:38
Революция без букв: новая система "всматривается" в страницы и сжимает их в 50 раз

Исследователи DeepSeek создали систему, которая распознаёт текст не по символам, а по визуальным структурам страниц. Узнайте, как это меняет будущее OCR.

Читать полностью »
Microsoft убрала возможность полностью отключать автообновления в Microsoft Store сегодня в 2:26
Microsoft снова за своё: как Store тайно перешёл на режим “мы сами знаем, что лучше”

Microsoft тихо убрала возможность полностью отключать автообновления приложений в Microsoft Store. Теперь их можно лишь приостановить максимум на пять недель.

Читать полностью »