Искусственный интеллект
Искусственный интеллект
Олег Белов Опубликована вчера в 23:26

Суд, СМИ и скандалы: почему OpenAI перестаёт хранить ваши старые чаты

OpenAI перестаёт сохранять логи ChatGPT после судебного давления со стороны The New York Times

OpenAI объявила о планах прекратить сохранение удалённых чатов большинства пользователей ChatGPT. Это решение знаменует поворот в политике компании после нескольких месяцев юридического давления и судебных споров с американскими СМИ, включая The New York Times.

Что происходит

Ранее в этом году суд США обязал OpenAI "бессрочно" сохранять все журналы ChatGPT — включая те, которые пользователи удалили вручную. Мера была временной и предназначалась для сохранения возможных доказательств по делу о нарушении авторских прав. Истцы утверждают, что материалы их публикаций использовались для обучения языковых моделей без разрешения.

Теперь OpenAI уведомила, что прекращает общее хранение удалённых диалогов, за исключением случаев, связанных с судебными запросами. Это означает, что большая часть пользователей вновь получит конфиденциальность при работе с чат-ботом — по крайней мере, на уровне внутреннего хранения данных.

Кто останется под наблюдением

Несмотря на общее снятие ограничений, OpenAI сохранит логи некоторых пользователей. Речь идёт о тех аккаунтах, которые отмечены The New York Times и другими издательствами как потенциально связанные с публикацией защищённых материалов.

"Сохранённые по распоряжению суда чаты будут по-прежнему доступны истцам по этому делу", — пояснили в компании.

Более того, суд разрешил истцам по ходу разбирательства расширять список таких пользователей. Таким образом, если СМИ посчитают нужным запросить данные по новым аккаунтам, OpenAI обязана будет сохранить соответствующие чаты, даже если пользователи их удалят.

Почему это важно

История с хранением чатов стала знаковой не только для OpenAI, но и для всей отрасли генеративного ИИ. После того как The New York Times подала в суд на OpenAI и Microsoft, заявив о нарушении авторских прав, компании оказались под давлением новых требований к прозрачности и хранению данных.

Параллельно Microsoft — соответчик по делу — пытается добиться отдельного постановления, чтобы избежать раскрытия данных пользователей своего продукта Copilot. Однако пока решения по этому вопросу нет, корпорации действуют синхронно, стараясь не создавать прецедентов, которые могут усилить требования к сохранности пользовательской информации.

Судебный контекст

Иск The New York Times стал одним из самых громких прецедентов в сфере ИИ. Издательство утверждает, что OpenAI использовала защищённые авторским правом материалы для обучения моделей GPT без согласия правообладателей. Суд постановил, что для возможного подтверждения этих фактов необходимо сохранить все диалоги пользователей, поскольку они могли содержать фрагменты оригинальных текстов СМИ.

Это решение вызвало волну критики среди пользователей, обеспокоенных сохранением личных разговоров с ИИ. После нескольких месяцев переговоров OpenAI добилась послаблений: теперь хранятся только те данные, которые прямо относятся к делу.

Давление на компанию

Для OpenAI эта ситуация стала испытанием и с финансовой точки зрения. Из-за юридических рисков страховые компании отказываются предоставлять OpenAI полное покрытие по искам, связанным с нарушением интеллектуальной собственности. По данным инсайдеров, речь идёт о потенциальных убытках в миллиарды долларов, что делает вопрос урегулирования приоритетным для руководства.

Компания также сталкивается с критикой со стороны пользователей, обеспокоенных приватностью и возможностью утечек. Удаление старых чатов стало символическим шагом, демонстрирующим, что OpenAI старается вернуть доверие аудитории.

Когда удалят чаты

Компания не указала точную дату начала очистки, но подтвердила, что процесс будет поэтапным и затронет все аккаунты, не связанные с судебными запросами. Это значит, что:

  1. Удалённые ранее чаты будут безвозвратно стерты с серверов.

  2. Новые чаты, удалённые пользователем, не будут сохраняться в резервных копиях.

  3. Исключения составят случаи, когда данные запрошены судом или следственными органами.

Применение истории чатов в расследованиях

Пока юристы обсуждают авторские права, прецеденты с использованием чатов ChatGPT в уголовных делах множатся. Осенью американские СМИ сообщили о нескольких случаях, когда переписка с ИИ использовалась как доказательство в полиции.

В одном из них студент признался чат-боту в вандализме на парковке университета, и эти данные помогли полиции установить его личность. В другом случае школьник опубликовал скриншот своего разговора с ChatGPT, где спрашивал о способах расправы над одноклассником — это также стало причиной задержания.

Эти инциденты показали, что частные разговоры с ИИ уже не воспринимаются как полностью конфиденциальные. Несмотря на то что OpenAI заявляет о защите данных, юридические органы могут получить доступ к ним по решению суда.

Что будет дальше

Юристы прогнозируют, что ситуация приведёт к выработке новых правил взаимодействия пользователей с ИИ. Платформы, работающие с генеративными моделями, скорее всего, будут обязаны указывать, какие данные могут быть сохранены и в каких случаях — раскрыты.

OpenAI, в свою очередь, стремится показать, что контролирует процесс и уважает права пользователей. Отказ от массового хранения удалённых чатов — один из шагов к тому, чтобы продемонстрировать прозрачность и соблюдение норм конфиденциальности.

Плюсы и минусы новой политики

Плюсы Минусы
Повышение уровня приватности пользователей Возможная потеря данных для анализа и отладки
Снижение юридических рисков по искам Исключения для отдельных пользователей вызывают вопросы
Восстановление доверия аудитории Увеличение нагрузки на процесс соблюдения судебных требований
Соответствие международным нормам о защите данных Возможные сложности при расследованиях нарушений

FAQ

Удалённые чаты теперь действительно исчезнут навсегда?
Да, OpenAI заявила, что прекращает их хранение для всех пользователей, кроме тех, чьи аккаунты связаны с судебными расследованиями.

Почему суд потребовал сохранять все чаты?
Чтобы сохранить потенциальные доказательства нарушений авторских прав — истцы утверждают, что модели могли использовать защищённые тексты СМИ.

Могут ли правоохранительные органы получить доступ к чатам?
Да, но только по решению суда. В отдельных случаях переписка уже становилась доказательной базой в расследованиях.

Затронет ли это корпоративные версии ChatGPT?
OpenAI пока не уточняет, но вероятно, корпоративные клиенты будут регулировать хранение чатов по отдельным контрактам.

Мифы и правда

Миф: OpenAI удаляет все данные пользователей без исключений.
Правда: удаление касается только тех чатов, которые не связаны с судебными делами.

Миф: полиция получает доступ к чатам автоматически.
Правда: доступ возможен только по судебному ордеру.

Миф: OpenAI делает это, чтобы скрыть следы нарушений.
Правда: компания действует по согласованию с судом и регулирующими органами, чтобы соблюсти баланс между требованиями суда и правами пользователей.

Три интересных факта

  1. Судебное постановление о "бессрочном хранении" стало первым подобным решением в истории ИИ-индустрии.

  2. OpenAI использует распределённое хранение данных, поэтому физическое удаление чатов требует сложных технических процедур.

  3. В 2024 году компания уже внедрила режим "Без истории", позволяющий пользователям не сохранять чаты в интерфейсе, но серверные копии всё равно существовали — теперь исчезнут и они.

Подписывайтесь на NewsInfo.Ru

Читайте также

OpenAI и Broadcom создадут собственные AI-чипы для снижения зависимости от Nvidia сегодня в 2:26
Чип или погибни: как OpenAI спасает себя от дефицита и диктует новое будущее ИИ

OpenAI и Broadcom запускают амбициозный проект по созданию собственных чипов искусственного интеллекта. Это шаг к независимости от Nvidia и фундамент для будущего сверхинтеллекта.

Читать полностью »
Калифорния установила правила для AI-компаньонов: возрастная проверка и штрафы до $250 000 сегодня в 1:17
Говоришь с ботом — сначала покажи паспорт: новые законы бьют по AI-компаньонам

Калифорния первой в США узаконила правила общения с чат-ботами. Теперь даже искусственный интеллект обязан соблюдать границы и заботиться о безопасности собеседника.

Читать полностью »
Российские вузы сохранили позиции в мировом рейтинге THE 2025 — лидирует МГУ сегодня в 0:12
Ты не лузер, если не в Оксфорде: где действительно учат так, чтобы не жалеть потом

Мировой рейтинг университетов от Times Higher Education вновь подтвердил лидерство США и Великобритании. Но главная интрига — кто действительно улучшил свои позиции, а кто застыл на месте.

Читать полностью »
Graphite: доля ИИ-контента в интернете в 2025 году достигла 52% вчера в 22:36
Человек устал, нейросеть не спит: кто теперь пишет новости за людей

ИИ уже создает половину интернет-статей. Но почему Google всё ещё предпочитает тексты, написанные людьми, и как найти баланс между скоростью и качеством?

Читать полностью »
Разработчик Carter54 запустил полноценный порт Quake внутри Telegram вчера в 21:16
Quake в Telegram: шутер 90-х теперь запускается прямо в чате

Энтузиаст Carter54 перенёс легендарный шутер Quake прямо в Telegram. Игра запускается без установки, сохраняет прогресс и работает даже на смартфоне.

Читать полностью »
Учёные выявили уязвимость Android Pixnapping, позволяющую считывать изображение с экрана вчера в 20:30
Телефон сдаёт вас с потрохами: как Android научился выдавать пароли сам

Исследователи обнаружили уязвимость Pixnapping, позволяющую незаметно считывать данные с экрана Android. Google уже готовит обновление безопасности.

Читать полностью »
Google тестирует интеграцию Gemini в Google Maps — навигация становится разговорной вчера в 19:11
Больше не просто карта: в Google Maps поселился разговорчивый ИИ

Google тестирует интеграцию ИИ Gemini прямо в Google Maps. Теперь навигатор способен вести диалог, понимать естественную речь и помогать без лишних касаний экрана.

Читать полностью »
Эксперт Курочкин назвал правила защиты аккаунтов от взлома вчера в 18:28
Секретные коды жизни: лайфхаки по защите аккаунтов, которые реально работают

Узнайте, как надёжно защитить свои аккаунты от взлома, использовать сложные пароли и двухфакторную аутентификацию, чтобы сохранить личные данные в безопасности.

Читать полностью »