OpenAI оказалась в центре громкого скандала: компанию обвинили в давлении на сторонников регулирования искусственного интеллекта. Поводом стали действия юристов корпорации, которые, по словам участников инцидента, перешли грань обычных юридических процедур.
Конфликт, начавшийся с ИИ, дошёл до личных визитов
История началась с того, что Натан Кэлвин, юрист некоммерческой организации Encode AI, получил судебную повестку прямо у себя дома. По его словам, документы ему вручили во время ужина, что он расценил как попытку психологического давления. В повестке фигурировали как он лично, так и возглавляемая им организация.
Encode AI занимается вопросами этического и законодательного регулирования искусственного интеллекта, в частности поддерживает инициативу SB 53 — калифорнийский закон, обязывающий крупные компании раскрывать данные о безопасности своих ИИ-систем.
По версии The Verge, повестка связана с судебным делом OpenAI против Илона Маска. Компания якобы пытается выяснить, не связано ли Encode AI с финансированием от предпринимателя.
Судебные запросы как инструмент давления
Вслед за Encode AI аналогичные повестки получили и другие организации. Формально эти структуры не являются участниками спора между OpenAI и Маском, однако интерес корпорации к ним объяснили необходимостью "понимания контекста участия сторонних лиц в процессе".
"Цель компании — понять контекст участия Encode AI в судебных процессах, связанных с Маском", — отметил представитель OpenAI Аарон Квон.
При этом он подчеркнул, что вручение документов проходило "в рамках стандартных процедур". В Encode AI уверены в обратном: там расценивают действия OpenAI как давление на сторонников государственного контроля над ИИ.
Противостояние, растянувшееся на годы
Противостояние OpenAI и Илона Маска тянется уже не первый год. Всё началось после того, как Маск, один из сооснователей компании, покинул её совет директоров и основал собственный стартап xAI. Летом прошлого года xAI подала иск против OpenAI, обвинив её в переманивании сотрудников и попытке получить доступ к исходному коду чат-бота Grok и внутренним стратегиям дата-центров.
Теперь OpenAI, в рамках встречного иска, стремится доказать, что Маск якобы использует сеть аффилированных организаций для давления на компанию и замедления её деятельности. Encode AI и The Midas Project оказались в поле зрения юристов именно по этой причине.
Закон SB 53: прозрачность вместо тайн
Ключевым элементом конфликта стал калифорнийский закон SB 53. Он вступил в силу осенью и требует, чтобы компании, занимающиеся искусственным интеллектом, раскрывали сведения о безопасности своих алгоритмов и потенциальных рисках.
Многие эксперты считают этот документ прорывным, ведь он впервые ставит под контроль разработку и использование ИИ в коммерческих продуктах — от голосовых помощников до систем автономного управления. Подобные требования могут повлиять на такие гиганты, как OpenAI, Google, Anthropic и другие.
Encode AI активно поддерживала принятие SB 53, что и стало, по мнению юриста Натана Кэлвина, основной причиной давления. В самой OpenAI утверждают, что их интерес ограничивается юридическими формальностями.
Сравнение позиций сторон
Позиция |
Encode AI |
OpenAI |
Оценка ситуации |
Давление и запугивание |
Стандартная юридическая процедура |
Цель действий |
Поддержка регулирования ИИ |
Расследование связи с Маском |
Отношение к SB 53 |
Поддерживает закон |
Не комментирует напрямую |
Роль в судебном процессе |
Третья сторона |
Истец во встречном иске против Маска |
Ошибка → Последствие → Альтернатива
-
Ошибка: организация не реагирует на юридические запросы.
Последствие: обвинения в уклонении от сотрудничества.
Альтернатива: официально подтвердить получение повестки и подать письменный ответ.
-
Ошибка: публичное обвинение без доказательств.
Последствие: риск судебного иска о клевете.
Альтернатива: предоставлять комментарии только после консультации с юристами.
-
Ошибка: хранение данных без шифрования.
Последствие: утечка внутренней переписки.
Альтернатива: использование защищённых сервисов.
А что если конфликт перерастёт в политический?
Если ситуация вокруг OpenAI и Encode AI продолжит обостряться, она может стать предметом внимания американских законодателей. Конгресс США уже несколько раз поднимал тему этического контроля над ИИ, а закон SB 53 может стать моделью для федерального регулирования.
Для компаний, занимающихся искусственным интеллектом, это означает новую эпоху: время свободных экспериментов подходит к концу, и на смену приходит режим ответственности.
OpenAI, как крупнейший игрок на рынке, рискует стать первой компанией, на примере которой власти США проверят эффективность будущих норм.
Плюсы и минусы регулирования ИИ
Плюсы |
Минусы |
Прозрачность в разработке технологий |
Замедление инноваций из-за бюрократии |
Защита пользователей от рисков |
Рост издержек для стартапов |
Контроль над утечками данных |
Угроза утраты конкурентных преимуществ |
Повышение доверия общества к ИИ |
Возможность злоупотреблений со стороны регуляторов |
Часто задаваемые вопросы
Как закон SB 53 влияет на OpenAI?
Он требует от компании раскрывать больше информации о безопасности своих моделей, что может затронуть внутренние процессы и документацию.
Почему Маск судится с OpenAI?
xAI обвиняет компанию в переманивании специалистов и попытке получить доступ к внутренним данным.
Может ли Encode AI подать встречный иск?
Теоретически — да. Если организация сочтёт действия OpenAI формой давления, она вправе обратиться в суд или к регуляторам.
Мифы и правда
Миф: регулирование ИИ убьёт инновации.
Правда: на практике прозрачные правила повышают доверие к технологиям и защищают пользователей.
Миф: повестка — это всегда давление.
Правда: в некоторых случаях это обычная часть судебной процедуры.
Миф: законы вроде SB 53 создаются против крупных компаний.
Правда: они направлены на повышение ответственности всех участников рынка.
Два факта о конфликте
-
Encode AI не имеет официальных связей с Илоном Маском.
-
Закон SB 53 считается первым актом, напрямую регулирующим ИИ-компании в США.