Пока одни юристы осваивают ChatGPT, другие — уже зарабатывают на нем штрафы и дисциплинарные взыскания. В американских судах разрастается то, что судьи называют «эпидемией ИИ-галлюцинаций» — когда адвокаты подают документы, наполненные несуществующими делами и сфабрикованными цитатами, сгенерированными искусственным интеллектом.
Издание Ars Technica совместно с юристом и исследователем ИИ Дамьеном Шарлотеном проанализировало 23 случая, в которых адвокаты были наказаны за использование генеративных моделей без проверки результатов. И хотя большинство судей готовы проявить снисхождение к тем, кто честно признаёт ошибку и проходит обучение по ИИ, растущее число юристов выбирает путь отрицания — с поразительно изобретательными оправданиями.
«Я не знал, что это ИИ» — классика жанра
Самое распространённое оправдание, по данным Ars, — «я не знал, что использую ИИ».
Так, адвокат из Калифорнии заявил, что перепутал ответы Google AI Overviews с обычными результатами поиска. Другие винят помощников или даже клиентов: юрист из Техаса утверждал, что клиентка «помогала с теорией дела» — и именно она вставила вымышленные ссылки. Суд быстро отверг эти объяснения.
«Я не думал, что ChatGPT всё выдумает»
Вторая волна оправданий — наивность.
Один юрист из Оклахомы признался, что попросил ChatGPT «сделать текст убедительнее» и не ожидал, что ИИ добавит несуществующие цитаты.
Другой, из Калифорнии, заплатил $10 000 штрафа после того, как позволил модели «улучшить» его резюме и даже прогнал результат через другие ИИ-платформы «для проверки», так и не прочитав итоговый текст.
Судьи больше не принимают подобные объяснения. Многие суды уже разработали руководства по борьбе с ИИ-галлюцинациями, где прямо говорится: ответственность за проверку информации несёт адвокат, а не алгоритм.
Кибератака и «вредоносный ИИ»
Иногда юристы прибегают к более экзотическим историям.
В Нью-Йорке адвокат Иннокентий Чинвезе утверждал, что несанкционированный доступ к его компьютеру «изменил правильные ссылки» в документе, созданном Microsoft Copilot. Судья Кимон С. Термос назвал это оправдание «невероятным и ничем не подтверждённым».
Чинвезе попытался вызвать эксперта по кибербезопасности, но, вернувшись после перерыва, отказался от этой версии. Суд оштрафовал его на $1 000 и направил жалобу в коллегию адвокатов, указав, что его поведение «серьёзно подрывает доверие к профессии».
«Переключать окна на ноутбуке сложно»
Иногда оправдания звучат почти комично.
В Алабаме юрист Джеймс Джонсон объяснил, что использовал плагин Ghostwriter Legal вместо Fastcase, потому что ему было неудобно переключаться между окнами на ноутбуке с тачпадом. Судья Терри Ф. Мурер не впечатлился: инструмент прямо предупреждал, что работает на базе ChatGPT.
Результат — $5 000 штрафа и потеря клиента.
«Не смог войти в Westlaw»
Другие адвокаты ссылаются на технические проблемы: например, неудачную авторизацию в базе Westlaw или LexisNexis.
Юрист из Айовы призналась, что обратилась к «вторичным инструментам ИИ» из-за проблем со входом. Суд проявил понимание, но всё же оштрафовал её на $150 и обязал пройти двухчасовой курс по этике и ИИ.
В Луизиане другая адвокатка солгала, что её ошибки вызваны «ИИ-функцией Westlaw Precision». Проверка показала, что она вовсе не использовала этот инструмент, — и штраф составил $1 000.
«Серийные галлюцинаторы» и рекордные штрафы
Некоторые нарушители — рецидивисты.
Адвокат Уильям Т. Паничи из Иллинойса был наказан трижды, потерял более $7 900, и признался, что «почти не делал личной работы над апелляцией».
А во Флориде юрист Джеймс Мартин Пол получил рекордный штраф $85 000 — суд назвал его поведение «оскорбительным и подрывающим доверие к профессии».
Судьи устали
Американские судьи всё чаще выражают раздражение.
Судья Майкл Слэйд из Иллинойса прямо заявил:
«Любой юрист, который сегодня не понимает, что использование генеративного ИИ для правовых исследований — это игра с огнём, живёт в облаке».
И хотя некоторые адвокаты всё ещё пытаются оправдаться техническими трудностями, общее послание судов очевидно: ИИ — не алиби.
Источник: https://arstechnica.com/tech-policy/2025/11/lawyers-keep-giving-weak-sauce-excuses-for-fake-ai-citat...Если вам понравился материал, кликните значок - вы поможете нам узнать, каким статьям и новостям следует отдавать предпочтение. Если вы хотите обсудить материал - не стесняйтесь оставлять свои комментарии : возможно, они будут полезны другим нашим читателям!

