
Искусственный интеллект довёл до штрафа: юрист заплатил $10 000 за "умную" помощь
Использование генеративного искусственного интеллекта в юридической практике продолжает вызывать споры и скандалы. В Калифорнии апелляционный суд оштрафовал адвоката Амира Мостафави на 10 тысяч долларов за подачу документов с поддельными судебными цитатами, которые были сгенерированы ChatGPT.
Этот случай стал самым серьёзным наказанием в штате, вынесенным юристу за неправильное использование ИИ.
Что произошло
-
В июле 2023 года Мостафави подал апелляцию, в которой использовал текст, сгенерированный ChatGPT.
-
Из 23 упомянутых судебных дел 21 оказались выдуманными.
-
Судьи указали, что юрист обязан лично проверять каждую цитату.
"Ни один документ, поданный в суд, не должен содержать цитат, которые адвокат лично не прочитал и не проверил", — говорится в заявлении суда.
Решение суда
Коллегия из трёх судей признала апелляцию Мостафави:
-
бессодержательной,
-
нарушающей правила,
-
включающей фиктивные материалы,
-
тратящей время суда и налогоплательщиков.
За это адвокат был оштрафован на 10 тыс. долларов.
Как отреагировали профессиональные организации
Случай совпал с активным обсуждением роли ИИ в юридической системе:
-
В прошлом месяце Судебный совет Калифорнии обязал суды к 15 декабря 2025 года либо запретить использование генеративного ИИ, либо разработать политику его применения.
-
Ассоциация адвокатов Калифорнии рассматривает возможность ужесточить кодекс поведения, чтобы не допускать подобных случаев.
Таким образом, случай Мостафави стал не только частной историей, но и частью более широкой дискуссии.
Сравнение: когда ИИ помогает и когда вредит
Сценарий | Эффект | Пример |
Использование ИИ для анализа документов | Экономия времени | Поиск похожих дел и судебной практики |
Использование ИИ для генерации аргументов без проверки | Ошибки и поддельные цитаты | Дело Мостафави |
Комбинация ИИ + ручная проверка | Ускорение работы при сохранении качества | Подготовка драфта и редактирование юристом |
Ошибка → Последствие → Альтернатива
-
Ошибка: использовать ИИ-генератор без проверки источников.
-
Последствие: фиктивные цитаты, штраф, потеря репутации.
-
Альтернатива: проверка каждого упомянутого дела в правовых базах.
-
Ошибка: полное доверие ChatGPT как юридическому эксперту.
-
Последствие: нарушение кодекса поведения.
-
Альтернатива: применять ИИ только как вспомогательный инструмент.
-
Ошибка: подавать документ, не читая его целиком.
-
Последствие: обвинение в некомпетентности.
-
Альтернатива: финальная проверка юристом перед подачей.
А что если ИИ станет обязательным инструментом юристов?
Эксперты считают, что через несколько лет генеративные модели будут интегрированы в юридические базы данных и системы поиска, но всегда с автоматической проверкой ссылок. То есть ИИ останется помощником, но не заменит адвоката.
Плюсы и минусы ИИ в юридической сфере
Плюсы | Минусы |
Быстрое составление проектов документов | Риск "галлюцинаций" и поддельных ссылок |
Анализ больших массивов данных | Отсутствие юридической ответственности у ИИ |
Помощь молодым юристам | Вероятность недоверия со стороны судов |
Снижение затрат для клиентов | Возможные нарушения профессионального кодекса |
FAQ
Почему суд наказал адвоката, а не ChatGPT?
Ответственность за подачу документа несёт юрист, а не инструмент, которым он пользуется.
Можно ли вообще использовать ИИ в судах США?
Да, но только как вспомогательный инструмент. Обязательна ручная проверка.
Это первый случай штрафа?
Нет, но штраф в $10 тыс. стал самым крупным в Калифорнии по этой теме.
Мог ли адвокат оправдаться?
Он признал, что не читал текст полностью перед подачей, что лишь усугубило положение.
Мифы и правда
-
Миф: ChatGPT сам виноват в подделке цитат.
-
Правда: модель генерирует текст, но ответственность за его использование лежит на юристе.
-
Миф: теперь ИИ полностью запретят в судах.
-
Правда: скорее всего будут введены жёсткие правила и стандарты проверки.
-
Миф: юрист хотел сознательно ввести суд в заблуждение.
-
Правда: он признал, что хотел "улучшить" апелляцию, но не проверил текст.
3 интересных факта
-
В 2023 году OpenAI рекламировала ChatGPT как инструмент, способный сдать адвокатский экзамен, но исследователи MIT позже опровергли эти заявления.
-
Подобные инциденты уже происходили в Нью-Йорке и других штатах, но штрафы были меньше.
-
Решение суда в Калифорнии может стать ориентиром для формирования политики по ИИ во всей стране.
Исторический контекст
-
2023: первые громкие случаи использования ИИ в судах США.
-
2024: начались обсуждения в ассоциациях адвокатов об ограничении генеративных моделей.
-
2025: Судебный совет Калифорнии потребовал разработать политику по ИИ.
-
2025: дело Мостафави — крупнейший штраф за поддельные цитаты из ChatGPT.
Подписывайтесь на NewsInfo.Ru