ChatGPT с функцией памяти
ChatGPT с функцией памяти
Олег Белов Опубликована сегодня в 9:16

Писали, что умны — а теперь могут дорого заплатить: OpenAI обвиняют в пиратстве

Bloomberg Law: OpenAI обвиняют в использовании пиратских книг при обучении ChatGPT

Компания OpenAI оказалась в центре очередного конфликта, который может перерасти в один из самых громких судебных процессов в истории искусственного интеллекта. По данным Bloomberg Law, в распоряжении издателей и авторов оказалась внутренняя переписка сотрудников компании, где обсуждалось удаление набора данных, содержащего нелегальные копии книг, использованных для обучения ChatGPT.

Если эти сведения подтвердятся, OpenAI может быть обвинена не просто в нарушении авторских прав, а в умышленном использовании пиратского контента. В этом случае компании грозит штраф до 150 тысяч долларов за каждое произведение, что при масштабах её датасетов может обернуться многомиллиардными исками.

"Если утечка подтвердится, это станет первым документальным доказательством сознательного нарушения авторских прав при обучении ИИ", — отметил эксперт по цифровому праву Майкл Картер.

Что известно об утечке

Журналисты Bloomberg Law сообщают, что в электронной переписке OpenAI обсуждался некий "вспомогательный набор данных", в который входили тексты популярных романов и научных изданий. Эти файлы якобы были загружены без разрешения правообладателей и использовались для обучения языковых моделей.

Когда в компании начали готовиться к аудитам, сотрудники предложили удалить или переименовать этот набор, чтобы избежать юридических рисков. Внутренние документы, переданные юристам истцов, содержат указания "заменить упоминания источников" и "обеспечить конфиденциальность при ответах на запросы СМИ".

Официальных комментариев от OpenAI пока нет, но юристы компании утверждают, что утечка искажает контекст: обсуждения якобы касались ранних экспериментов с публичными датасетами, а не основного обучающего материала.

Потенциальные последствия

Если суд установит, что OpenAI осознанно использовала нелицензированные тексты, компания может столкнуться с коллективным иском издателей и авторов. Размер компенсации будет зависеть от количества произведений, вошедших в незаконные выборки.

Аналитики считают, что речь может идти о сотнях тысяч книг, включая современные бестселлеры и научную литературу. В этом случае общая сумма претензий может превысить несколько миллиардов долларов.

"Даже если штраф будет снижен, ущерб для репутации OpenAI окажется огромным — особенно в условиях растущего внимания к этичности обучения ИИ", — заявил юрист по интеллектуальной собственности Дэниел Ли.

Сравнение с делом Anthropic

История OpenAI во многом напоминает прецедент с компанией Anthropic, разработчиком модели Claude. В августе 2025 года Anthropic согласилась выплатить 1,5 миллиарда долларов компенсации после обвинений в использовании пиратских текстов для обучения.

Параметр OpenAI (ChatGPT) Anthropic (Claude)
Тип обвинения Использование пиратских книг Использование защищённых текстов без лицензии
Статус дела Расследование в процессе Урегулировано вне суда
Возможный штраф До $150 000 за каждое произведение Компенсация $1,5 млрд
Масштаб обучающего набора Сотни тысяч книг Несколько десятков тысяч
Потенциальный ущерб Многомиллиардный Ограниченный соглашением

Если суд решит, что OpenAI действовала с намерением скрыть следы использования пиратских данных, последствия для индустрии могут быть куда серьёзнее, чем в случае Anthropic.

Почему это важно для индустрии ИИ

Большинство современных языковых моделей, включая ChatGPT, Claude и Gemini, обучаются на огромных объёмах текстов из интернета. Однако вопрос законности и происхождения этих данных остаётся не до конца урегулированным.

Авторы и издатели всё чаще требуют прозрачности в источниках обучения, утверждая, что их произведения используются без разрешения и без компенсации. В ответ разработчики ИИ ссылаются на принципы "добросовестного использования" (fair use), но юристы отмечают, что этот аргумент может не применяться, если компания осознанно использовала пиратские копии.

Судебная перспектива

На данный момент суд рассматривает возможность снятия с OpenAI статуса адвокатской привилегии. Это даст истцам право запросить полные версии внутренних переписок и служебных документов. Если эти материалы будут признаны доказательствами умышленного сокрытия нарушений, компании грозит не только штраф, но и уголовная ответственность отдельных руководителей.

Ожидается, что первые слушания по делу начнутся в ближайшие месяцы. Эксперты предполагают, что OpenAI попытается урегулировать конфликт до суда, чтобы избежать репутационного кризиса и утечки корпоративной информации.

А что если обвинения подтвердятся?

Если вина OpenAI будет доказана, последствия выйдут далеко за рамки одной компании. Это может привести к:
• созданию международных стандартов лицензирования контента для ИИ;
• пересмотру правил "fair use" в США;
• ужесточению контроля за обучающими наборами данных;
• массовым искам против других разработчиков моделей.

Плюсы и минусы ситуации для индустрии

Положительные эффекты Негативные последствия
Повышение прозрачности в обучении ИИ Возможные многомиллиардные иски
Создание стандартов этичного использования данных Репутационные потери для OpenAI
Формирование рынка лицензированного контента Ужесточение регулирования
Возможность компенсации авторам Замедление инноваций
Повышение доверия пользователей Рост затрат на обучение моделей

FAQ

Что именно нашли издатели в переписке?
Сообщения о намерении удалить набор данных с пиратскими книгами и изменить его название в документации.

Почему OpenAI не прокомментировала утечку?
Компания, по словам юристов, не может давать публичные заявления до завершения проверки иска.

Может ли это повлиять на работу ChatGPT?
Пока нет. Даже при подтверждении нарушений OpenAI сможет выпустить обновления, исключив спорные данные.

Мифы и правда

  • Миф: ChatGPT обучен исключительно на пиратских книгах.
    Правда: большая часть данных получена из публичных источников, но часть контента могла содержать защищённые тексты.

  • Миф: OpenAI уже признала вину.
    Правда: официальных признаний нет, расследование продолжается.

  • Миф: модель будет отключена.
    Правда: такого сценария не рассматривают, речь идёт о финансовых и юридических последствиях.

Исторический контекст

Дебаты о законности использования защищённых текстов начались ещё в 2023 году, когда несколько авторов, включая Джорджа Р. Р. Мартина и Джонатана Франзена, подали коллективные иски против OpenAI. Тогда компания заявила, что её модели "не хранят тексты, а лишь обучаются на статистических закономерностях".

Теперь же ситуация может обернуться иначе: если подтвердится, что сотрудники осознанно скрывали использование нелицензированных данных, прецедент станет решающим для всей индустрии генеративного ИИ.

Интересные факты

  1. В обучающих наборах ранних версий GPT якобы использовались тексты из популярного торрент-архива Books3.

  2. Некоторые издатели уже требуют от OpenAI возмещения убытков в фиксированном размере за каждое произведение.

  3. После инцидента с Anthropic многие компании начали переходить на лицензированные наборы данных, включая партнёрства с архивами и библиотеками.

Подписывайтесь на NewsInfo.Ru

Читайте также

Новая модель MAI-Image-1 от Microsoft вошла в топ-10 визуальных AI-систем на LMArena сегодня в 4:46
Не рисует, а светом пишет: Microsoft выпустила нейросеть, которая пугающе хорошо видит мир

Microsoft представила MAI-Image-1 — собственный генератор изображений, который уже вошёл в топ-10 лучших моделей. Узнай, чем он отличается от конкурентов.

Читать полностью »
Минцифры запустило на сегодня в 3:46
Вход только по любви и доверию: как один человек может спасти твой аккаунт от взлома

На «Госуслугах» появилась функция доверенного контакта, которая поможет защитить аккаунт от взлома. Теперь смена пароля невозможна без участия выбранного близкого человека.

Читать полностью »
OpenAI и Broadcom создадут собственные AI-чипы для снижения зависимости от Nvidia сегодня в 2:26
Чип или погибни: как OpenAI спасает себя от дефицита и диктует новое будущее ИИ

OpenAI и Broadcom запускают амбициозный проект по созданию собственных чипов искусственного интеллекта. Это шаг к независимости от Nvidia и фундамент для будущего сверхинтеллекта.

Читать полностью »
Калифорния установила правила для AI-компаньонов: возрастная проверка и штрафы до $250 000 сегодня в 1:17
Говоришь с ботом — сначала покажи паспорт: новые законы бьют по AI-компаньонам

Калифорния первой в США узаконила правила общения с чат-ботами. Теперь даже искусственный интеллект обязан соблюдать границы и заботиться о безопасности собеседника.

Читать полностью »
Российские вузы сохранили позиции в мировом рейтинге THE 2025 — лидирует МГУ сегодня в 0:12
Ты не лузер, если не в Оксфорде: где действительно учат так, чтобы не жалеть потом

Мировой рейтинг университетов от Times Higher Education вновь подтвердил лидерство США и Великобритании. Но главная интрига — кто действительно улучшил свои позиции, а кто застыл на месте.

Читать полностью »
OpenAI перестаёт сохранять логи ChatGPT после судебного давления со стороны The New York Times вчера в 23:26
Суд, СМИ и скандалы: почему OpenAI перестаёт хранить ваши старые чаты

OpenAI прекращает сохранять удалённые чаты ChatGPT. После судебного давления компания меняет подход к хранению данных, возвращая пользователям контроль над приватностью.

Читать полностью »
Graphite: доля ИИ-контента в интернете в 2025 году достигла 52% вчера в 22:36
Человек устал, нейросеть не спит: кто теперь пишет новости за людей

ИИ уже создает половину интернет-статей. Но почему Google всё ещё предпочитает тексты, написанные людьми, и как найти баланс между скоростью и качеством?

Читать полностью »
Разработчик Carter54 запустил полноценный порт Quake внутри Telegram вчера в 21:16
Quake в Telegram: шутер 90-х теперь запускается прямо в чате

Энтузиаст Carter54 перенёс легендарный шутер Quake прямо в Telegram. Игра запускается без установки, сохраняет прогресс и работает даже на смартфоне.

Читать полностью »