
OpenAI шлёт повестки, а Белый дом спорит с НКО: кто на самом деле управляет безопасностью ИИ
В технологическом сообществе разгорается новый конфликт — на этот раз между лидерами Кремниевой долины и движением за безопасность искусственного интеллекта. Поводом стала серия резких заявлений Дэвида Сакса, советника Белого дома по ИИ и криптовалютам, и Джейсона Квона, директора по стратегии OpenAI. Оба публично усомнились в добросовестности организаций, выступающих за регулирование ИИ, и намекнули, что некоторые из них действуют "в интересах скрытых спонсоров".
В ответ представители некоммерческих организаций, с которыми поговорили журналисты TechCrunch, обвинили Сакса и OpenAI в попытке запугивания критиков. Этот спор обнажил глубокий разлом внутри индустрии — между теми, кто стремится развивать технологии любой ценой, и теми, кто настаивает на приоритете общественной безопасности.
Как начался конфликт
Всё началось с поста Дэвида Сакса в X (бывший Twitter), где он обвинил компанию Anthropic в том, что она якобы "нагоняет страх" ради продвижения выгодных себе законов. Anthropic, напомним, стала единственной крупной лабораторией, поддержавшей калифорнийский законопроект SB 53, который вводит требования по отчётности и безопасности для крупных разработчиков ИИ.
"Anthropic ведёт сложную стратегию захвата регулирующих органов", — написал Дэвид Сакс, добавив, что компания якобы "позиционирует себя как противника администрации Трампа".
Заявление вызвало бурную реакцию: сторонники безопасности ИИ увидели в нём попытку дискредитировать компанию, которая первой открыто поддержала инициативу по контролю за развитием искусственного интеллекта.
Вмешательство OpenAI: повестки и подозрения
Тем временем Джейсон Квон из OpenAI признал, что компания действительно направила судебные повестки нескольким организациям, включая Encode, занимающуюся разработкой политики ответственного ИИ. Повестки требовали предоставить документы и переписку, связанную с Илоном Маском и Маркoм Цукербергом.
"Это вызвало вопросы прозрачности: кто их финансирует и существует ли координация между ними", — пояснил Джейсон Квон.
Квон утверждает, что OpenAI действует в ответ на иск Маска, который обвиняет компанию в отходе от некоммерческой миссии. Однако критики считают это давлением на общественные организации.
"Это попытка заставить критиков замолчать, запугать их и отговорить другие некоммерческие организации от подобных действий", — заявил глава Альянса за безопасный ИИ Брендан Штайнхаузер.
Даже внутри OpenAI нашлись недовольные. Руководитель отдела согласования миссий Джошуа Ачиам написал в X:
"Хотя это, возможно, и поставит под угрозу мою карьеру, я скажу: это не выглядит чем-то хорошим", — отметил Джошуа Ачиам.
Долгая история противостояния
Это не первый случай, когда Кремниевая долина атакует сторонников регулирования. Ещё в 2024 году вокруг законопроекта SB 1047, направленного на повышение безопасности ИИ, распространились слухи, будто он предусматривает тюремные сроки для основателей стартапов. Позже Институт Брукингса назвал эти утверждения ложными, но губернатор Гэвин Ньюсом всё же наложил вето на закон.
Таким образом, бизнес-сообщество в очередной раз показало, насколько болезненно воспринимает любые попытки ограничить автономию технологических гигантов.
Голоса из Белого дома
К обсуждению подключился и Шрирам Кришнан, старший советник Белого дома по ИИ и бывший партнёр венчурного фонда A16Z. Он обвинил активистов в том, что они "оторваны от реальности" и не понимают, как технологии реально используются людьми:
"Организациям, занимающимся безопасностью ИИ, стоит поговорить с теми, кто внедряет ИИ в свои дома и бизнесы", — отметил Шрирам Кришнан.
Это заявление подхватили инвесторы и стартаперы, для которых жёсткое регулирование ИИ грозит замедлением роста индустрии.
Почему это важно: закон SB 53 и его последствия
Подписанный в сентябре закон SB 53 обязывает крупные компании в сфере ИИ публиковать отчёты о безопасности своих систем. Он также требует прозрачности в вопросах тестирования моделей и оценки рисков. Хотя документ ориентирован на защиту пользователей, его критикуют как чрезмерно сложный и тормозящий инновации.
Закон | Суть | Поддержка | Оппоненты |
SB 53 (Калифорния) | Требует отчёты по безопасности ИИ и раскрытие рисков | Anthropic, Encode, некоммерческие организации | OpenAI, часть инвестфондов, венчурные студии |
SB 1047 (2024, отклонён) | Предлагал жёсткие санкции за небезопасные системы | Академическое сообщество | Стартапы, инвесторы |
Ошибка → Последствие → Альтернатива
-
Ошибка: обвинять исследователей в сговоре.
Последствие: потеря доверия и рост общественного давления.
Альтернатива: открытые диалоги между лабораториями и НКО. -
Ошибка: агрессивное лоббирование против безопасности.
Последствие: усиление критики и вмешательство властей.
Альтернатива: участие в разработке единых стандартов регулирования. -
Ошибка: отсутствие прозрачности в политике OpenAI.
Последствие: рост подозрений и внутренний конфликт в компании.
Альтернатива: публикация открытых отчётов о взаимодействии с НКО.
А что если движение за безопасность действительно набирает силу?
Пока крупные игроки спорят, активисты и исследователи укрепляют позиции. После нескольких лет бурного, но мало регулируемого роста, общественный запрос на "осмотрительный ИИ" заметно усилился. К 2026 году может сформироваться новое законодательное поле, где безопасность будет не барьером, а конкурентным преимуществом.
Многие эксперты считают, что ожесточённая реакция Кремниевой долины на активистов — это не слабость, а признание того, что их влияние становится реальным.
Плюсы и минусы регулирования ИИ
Плюсы | Минусы |
Повышает прозрачность и доверие пользователей | Замедляет внедрение инноваций |
Снижает риск злоупотреблений и утечек данных | Увеличивает бюрократические издержки |
Защищает рынок труда и общественные интересы | Может привести к оттоку стартапов из США |
Создаёт основу для международных стандартов | Возможны политические манипуляции |
FAQ
— Почему OpenAI рассылает повестки?
Компания заявляет, что хочет выяснить, связаны ли некоторые НКО с конкурентами или политическими силами, но критики считают это формой давления.
— Что такое SB 53 и почему он важен?
Это новый закон Калифорнии, который требует от крупных ИИ-компаний раскрывать риски и отчётность по безопасности.
— Почему Anthropic поддержала этот закон?
Компания позиционирует себя как лидер ответственного ИИ и видит в регулировании инструмент укрепления доверия.
Мифы и правда
• Миф: активисты хотят "задушить" инновации.
Правда: они требуют прозрачности и механизмов контроля, а не запрета технологий.
• Миф: регулирование убьёт стартапы.
Правда: оно лишь заставит их внедрять принципы безопасности с самого начала.
• Миф: OpenAI и Anthropic действуют по одной линии.
Правда: их позиции всё больше расходятся — от подхода к открытому коду до взаимодействия с регуляторами.
Исторический контекст
Движение за безопасность искусственного интеллекта сформировалось в середине 2010-х, когда крупные лаборатории — OpenAI, DeepMind и MIRI — начали исследовать потенциальные риски ИИ. Но к 2024 году акцент сместился: если раньше речь шла о гипотетических угрозах, то сегодня внимание приковано к реальным проблемам — дипфейкам, манипуляциям и киберрискам. Калифорния стала первой площадкой, где эти идеи воплотились в законодательные инициативы.
Подписывайтесь на NewsInfo.Ru