ИИ должен замолчать: Возняк, Хинтон и Брэнсон требуют остановить машины, пока не поздно
22 октября 2025 года Институт "Будущее жизни" (Future of Life Institute, FLI) опубликовал новый документ под названием "Заявление о сверхинтеллекте" - обращение к мировому научному и технологическому сообществу с требованием временно приостановить разработку искусственного интеллекта, способного превзойти человека в большинстве интеллектуальных задач.
Под документом стоят подписи известных деятелей науки, политики и бизнеса, включая Стива Возняка, Стива Бэннона, нобелевских лауреатов Йошуа Бенджио и Джеффри Хинтона, а также Ричарда Брэнсона, принца Гарри и Меган Маркл.
"Человечество должно убедиться, что сверхинтеллект безопасен и поддаётся контролю, прежде чем пересечёт точку невозврата", — отмечается в заявлении FLI.
Что предлагает "Заявление о сверхинтеллекте"
Авторы инициативы призывают остановить исследования и тестирование систем, способных к общему сверхинтеллекту (AGI), до выполнения двух ключевых условий:
-
Научный консенсус о безопасности таких систем и методах их контроля.
-
Общественный мандат, то есть широкое согласие человечества на продолжение подобных разработок.
В тексте подчёркивается, что быстрый прогресс в области ИИ угрожает не только сфере труда и свободе личности, но и "достоинству человека и самому выживанию цивилизации".
Кто подписал документ
Подписи под "Заявлением о сверхинтеллекте" поставили представители разных областей — от технологического бизнеса до политики и гуманитарных наук. Среди них:
-
Стив Возняк, сооснователь Apple;
-
Стив Бэннон, политический стратег;
-
Йошуа Бенджио и Джеффри Хинтон, пионеры глубинного обучения;
-
Ричард Брэнсон, основатель Virgin Group;
-
принц Гарри и Меган Маркл.
Такой широкий список показывает, что опасения относительно ИИ выходят за рамки технологического сектора и становятся глобальным общественным вопросом.
Продолжение мартовского письма 2023 года
Это не первое обращение FLI к мировым компаниям. Весной 2023 года институт опубликовал открытое письмо с призывом объявить шестимесячную паузу в обучении моделей мощнее GPT-4. Тогда инициатива вызвала бурные дискуссии, но ни одна крупная компания (включая OpenAI, Google и Anthropic) фактически её не поддержала.
Теперь FLI идёт дальше — речь идёт не просто о паузе, а о моратории без конкретного срока, который может быть снят только после появления научных гарантий безопасности.
Почему это важно сейчас
С момента публикации предыдущего письма ИИ-индустрия прошла несколько ключевых этапов:
-
Появление многоагентных систем с автономным планированием и действиями в реальном мире;
-
Рост вычислительных мощностей, необходимых для обучения крупных моделей;
-
Активное внедрение ИИ в системы государственного управления, образования и здравоохранения.
FLI предупреждает, что эти тенденции могут привести к созданию систем, способных принимать решения без человеческого контроля - от финансовых операций до военных задач.
Основные тезисы заявления
| Пункт | Содержание |
| Цель | Временная остановка исследований сверхинтеллекта |
| Продолжительность | До достижения научного консенсуса и общественного согласия |
| Обоснование | Риски для труда, свободы, достоинства и выживания человечества |
| Характер документа | Нейтральный, не антиискусственный, направлен на безопасность |
| Предыдущий документ | Письмо о "передышке" для GPT-4 (март 2023 года) |
Каковы потенциальные риски сверхинтеллекта
FLI и соавторы заявления выделяют несколько направлений угроз:
-
Экономические - вытеснение людей из ключевых профессий и концентрация капитала у разработчиков ИИ.
-
Политические - возможность манипуляции информацией и общественным мнением.
-
Этические - отсутствие прозрачности в принятии решений нейросетями.
-
Экзистенциальные - риск того, что сверхинтеллект выйдет из-под контроля и поставит под угрозу человечество.
Организация не предлагает отказаться от ИИ как технологии, а требует ввести механизмы контроля и "тормозы безопасности", прежде чем двигаться дальше.
Ошибка → Последствие → Альтернатива
| Ошибка | Последствие | Альтернатива |
| Игнорировать риски сверхинтеллекта | Потенциальная потеря контроля над системами | Ввести мораторий до появления надёжных методов контроля |
| Сосредоточиться только на коммерческой выгоде | Усиление неравенства и этических конфликтов | Формировать международные стандарты регулирования |
| Отложить обсуждение до появления угроз | Опоздание с мерами безопасности | Создание глобальной этической платформы для диалога |
А что если мораторий всё же введут?
Если инициативу FLI поддержат правительства или международные организации, это станет первым в истории ограничением на фундаментальные исследования ИИ.
Однако реализация такой меры потребует согласованности между ведущими державами — США, ЕС, Китаем и Индией, что пока представляется маловероятным.
С другой стороны, подобный шаг может ускорить создание международного регулятора по ИИ, аналогичного МАГАТЭ в сфере атомной энергетики.
Плюсы и минусы инициативы
| Плюсы | Минусы |
| Повышение уровня общественного контроля | Замедление научного прогресса |
| Стимулирование разработки безопасных стандартов | Риск ухода исследований "в тень" |
| Привлечение внимания политиков и общества | Отсутствие единых критериев "сверхинтеллекта" |
| Возможность формирования международного договора | Сложность реализации в условиях конкуренции |
Исторический контекст
Институт "Будущее жизни" был основан в 2014 году группой исследователей, в числе которых Макс Тегмарк и Йошуа Бенджио. Организация известна своими инициативами в области этики ИИ и глобальной безопасности.
В 2015 году FLI уже публиковал "Письмо об опасностях неконтролируемого ИИ", подписанное Илон Маском и Стивеном Хокингом. С тех пор институт остаётся одним из ключевых центров дискуссий о безопасном развитии искусственного интеллекта.
Интересные факты
-
Текст заявления умещается на две страницы и написан намеренно без сложных терминов — чтобы его могли подписать не только учёные, но и общественные деятели.
-
Среди подписантов — представители более чем 40 стран.
-
FLI планирует направить документ в ООН, Европейскую комиссию и Белый дом для рассмотрения на уровне политики.
FAQ
Что такое "сверхинтеллект" в понимании FLI?
Это система, превосходящая человека в большинстве интеллектуальных задач — от логического рассуждения до научного анализа и творчества.
Означает ли это запрет на обычные ИИ-системы?
Нет. Речь идёт только о разработке моделей, близких к общему или сверхчеловеческому интеллекту.
Есть ли шанс, что правительства поддержат инициативу?
Пока документ имеет декларативный характер, но может стать основой для будущих международных соглашений.
Подписывайтесь на NewsInfo.Ru