Всем привет!

Меня зовут Кирилл Дьяков. Я новый писатель на Хабре, так как в основном обитаю на порталах юридических, а не технических. Но поскольку тружусь я в области разработки искусственного интеллекта и очень интересуюсь темой применения этой технологии в юридической практике, то решил поделиться с вами своим небольшим обзором – как ИИ проникает в сферу права и какие порядки (и беспорядки) в ней наводит. Расскажу, как и где технология уже применяется юристами, какие задачи помогает решать, какие правовые и технические вызовы создает и даже кого уже успели за ее применение наказать.  

ИИ в юридической практике

Согласно опросу Bloomberg Law 2024 года среди более чем 450 юристов, 58% используют языковые модели для подготовки шаблонных документов и обращений, 53% — для поиска и анализа судебной практики, 42% — для обобщения правовых текстов. Также востребованы такие задачи, как проверка документов (34%), подготовка договоров (23%), проведение due diligence (21%) и актуализация контрактов (11%). Даже относительно редкие сценарии вроде помощи в управлении имуществом (2%) уже начали получать цифровую поддержку.

Главный мотив использования ИИ – повышение производительности: технология позволяет справляться с большим объемом задач без роста штата. Например, экспериментальный сервис Google NotebookLM способен обрабатывать до 50 загруженных документов одновременно, отвечая на вопросы строго в рамках содержимого. А еще с помощью ИИ снижается зависимость сотрудников от юротдела: чат-боты подсказывают порядок подачи претензий, оформляют обращения или направляют сотрудников к нужным регламентам — без участия юриста.

В Китае LLM уже активно внедряются в судебной системе — там действуют «виртуальные суды», где решения первично выносит модель, а затем их утверждает судья-человек. В России тоже обсуждается, какие функции можно поручить нейросети в судопроизводстве – так, на уровне Совета судей уже создана рабочая группа.

Картина была бы прекрасной, если бы не:

  • проблема «черного ящика»;

  • галлюцинации и ошибки ИИ (которые не проверялись);  

  • и гора вопросов из разряда «Кто виноват?» и «Что делать?».

Давайте о каждом пункте подробнее.

Проблема «черного ящика» и интерпретируемость LLM

Один из ключевых вызовов при работе с ИИ не только в юриспруденции — это отсутствие прозрачности в его решениях. Нейросети действуют по внутренней логике, которая остается скрытой от пользователя. Доцент Мичиганского университета Самир Равашде описывает это так: «Мы не понимаем, как глубокие нейронные сети приходят к своим решениям. Как и человеческий мозг, такие системы "теряют память" о том, какие именно входные данные сформировали их мыслительные протоколы». Проще говоря, даже при корректной работе модели невозможно точно объяснить, почему она дала именно такой ответ. Причем сделать это не могут даже сами разработчики.

Почему отсутствие интерпретируемости решений искусственного интеллекта вызывает беспокойство в контексте права? Во-первых, затруднено исправление ошибок. Если модель дала сбой, например, в системе беспилотного транспорта, бывает невозможно точно установить, что именно пошло не так. Во-вторых, нельзя предусмотреть всех сценариев. Из-за бесконечного множества возможных ситуаций ИИ может столкнуться с условиями, к которым не был подготовлен, что чревато неожиданными ошибками. В-третьих, возникают этические риски. ИИ-системы применяются в сферах, влияющих на жизнь людей (медицина, финансы, правосудие), но отсутствие прозрачности в их решениях подрывает доверие и ставит под вопрос справедливость.

Разработчики пытаются приоткрыть «чёрный ящик». Объяснимый ИИ (в смысле – набор методов и инструментов, позволяющих сделать процесс работы ИИ-систем понятным для человека) – один из главных технологических трендов. В этой области работают весь БигТех и даже Агентство перспективных оборонных исследований США, но больше всех, как кажется, – Anthropic.

Рекомендую почитать эти исследования по теме:

Circuit Tracing: Revealing Computational Graphs in Language Models

Tracing the thoughts of a large language model

Reasoning models don't always say what they think

Ошибки ИИ: обзор прецедентов

Модели генеративного искусственного интеллекта могут с высокой уверенностью выдавать неправдивые, но убедительные ответы, то есть галлюцинировать. В юридической практике уже зафиксированы подобные случаи. Так, ChatGPT сгенерировал фрагмент текста о том, что некий норвежский гражданин был осуждён за убийство своих детей. На основе ложной информации европейская организация по защите данных подала жалобу на OpenAI с требованием удалить сведения, однако технически вычистить отдельный «факт» из модели невозможно. Регулятор фактически предложил заставить разработчиков придумать механизм удаления неверных данных из системы.

Проблема повторилась и в судебной практике США. Там федеральный судья оштрафовал адвоката на $15000 за подачу документов, содержащих ссылки на несуществующие прецеденты, созданные искусственным интеллектом. В решении суда подчеркивалось, что применение ИИ-инструментов допустимо, но должно сопровождаться контролем со стороны человека, способного отличить реальную судебную практику от вымышленных данных.

Схожая ситуация произошла и в Канаде. При рассмотрении одного из исков выяснилось, что 9 из 10 судебных решений, приведённых в материалах, не имели под собой оснований — они были «вымышлены» нейросетью. Оставшееся решение, хоть и существовало, оказалось не относящимся к предмету спора, в результате  суд отказал в удовлетворении иска.

Количество подобных инцидентов продолжает расти. В базе данных, отслеживающей случаи галлюцинаций ИИ в юридической сфере, с 2023 по май 2025 года зафиксировано 137 дел в 12 странах. Если в 2023 году таких случаев было всего 10, то в 2024 – уже 37, а за первые месяцы 2025 – 73. Основными причинами штрафов, выносимых юристам, являются использование недостоверной информации, отсутствие проверки сгенерированного контента и нарушение профессиональных стандартов.

Сбои в работе ИИ проявляются не только в генерации текста, но и при распознавании лиц. В отдельных случаях такие ошибки приводят к серьёзным последствиям — от неправомерных задержаний до угроз жизни и здоровью.

В России один из таких инцидентов произошёл с учёным, который был ошибочно задержан по подозрению в убийствах. Алгоритм сопоставил его фотографию с фотороботом преступника 20-летней давности и выявил 55% совпадения. Мужчину поместили под стражу, а затем освободили, когда подтвердилось, что он не причастен. 

Похожий эпизод случился в США – там 61-летнего мужчину обвинили в ограблении магазина на основании данных системы распознавания лиц. Позже следствие установило, что ИИ ошибочно идентифицировал его как виновного. Обвинение было снято, однако сам факт задержания вновь показал уязвимость подобных систем к ложным срабатываниям.

Ошибки ИИ могут быть опасны и в быту. В прошлом году на Reddit появился пост, в котором утверждалось, что одна семья из Великобритании пострадала после того, как воспользовалась советами из пособия по грибам, купленного на одном из популярных маркетплейсов. Текст и иллюстрации в этом руководстве были полностью сгенерированы нейронкой и содержали неверную информацию о съедобности и способах приготовления грибов. После инцидента книга была удалена с платформы, однако ни о каких юридических последствиях для её создателей не сообщалось. У Washington Post, кстати, еще задолго до этого случая вышел обзор о проблемах сгенерированного ИИ-контента, которые могут вызвать такие вот последствия, как у этих грибников.

А еще ИИ может быть орудием для манипуляций и мошенничества, но это тема на целую отдельную статью.    

Все эти случаи иллюстрируют: 

1. Сбои в работе языковых моделей  могут оборачиваться серьёзными последствиями — от ложных обвинений до реального вреда здоровью. 

2. При этом в большинстве таких ситуаций пострадавшие получают лишь извинения, а механизм юридической ответственности за действия цифрового ассистента по-прежнему остаётся неурегулированным.

3. Любые данные, полученные от ИИ-моделей, требуют тщательной перепроверки перед тем, как использовать их в юридической деятельности, и тем более на кухне. 

Ответственность за косяки ИИ

Когда нейросеть допускает ошибку, встаёт вопрос: кто отвечает за последствия? Поскольку в большинстве стран, включая Россию, LLM-системы не наделены правосубъектностью, они не могут выступать ни ответчиком, ни участником спора. Это создаёт правовую неопределённость — особенно в случаях, когда вред был причинён действиями, инициированными или сформированными машиной.

На фоне этой неопределённости действующее законодательство опирается на традиционный принцип виновной ответственности. Согласно Гражданскому кодексу РФ, вред, причинённый личности или имуществу, должен быть возмещён в полном объёме лицом, его причинившим, если оно не докажет свою невиновность. Закон «О защите прав потребителей» добавляет, что производитель или продавец берет на себя последствия ущерба от некачественного товара или услуги даже при отсутствии вины.

Однако в случае с нейросетью установить, кто именно «причинил вред», бывает непросто. Возникает дилемма: должен ли отвечать пользователь, который применил ИИ-решение, или разработчик, создавший модель, допустившую ошибку?

Как этот вопрос решается в разных странах?

Интересен подход США: раздел 230 Communications Decency Act 1996 года освобождает цифровые платформы от юридических претензий по поводу пользовательского контента. Это означает, что компании вроде OpenAI или Google не отвечают за материалы, сгенерированные с помощью их инструментов. Такой подход снижает уязвимость разработчиков к судебным искам, но совершенно точно не отвечает на вопрос «Кто виноват?».  Отчасти на этот вопрос пытаются ответить условия пользовательских соглашений. В большинстве лицензионных договоров разработчики прямо указывают, что вся полнота рисков и последствий использования модели ложится на конечного пользователя. Юридическая нагрузка формально смещается на сторону потребителя, а создатели алгоритма освобождают себя от возможных претензий.

В ЕС действует Закон о цифровых услугах, согласно которому платформы не несут ответственности за пользовательский контент, если не знали о его незаконности. Однако после уведомления о нарушении платформа обязана оперативно удалить такой контент. 

В Бразилии Закон об интернете устанавливает ограниченную ответственность интернет-посредников: платформа не несёт ответственности за пользовательский контент, если не получила судебного предписания на его удаление.

Хотя законодательство пока не даёт однозначных ответов на вопрос об ответственности за действия ИИ, практика показывает: суды чаще всего возлагают её на человека или организацию, использующую такую технологию. Ключевым критерием становится не то, кто сгенерировал контент — человек или ИИ, — а то, кто его допустил к использованию и несёт контроль над результатом.

Показателен недавний случай, когда предприниматель размещал товары на одном из российских маркетплейсов, а карточки автоматически наполнялись описаниями и изображениями. Когда выяснилось, что часть контента нарушает авторские права, ответчик сослался на то, что информация сгенерирована нейросетью, а он сам к этому не причастен. Суд посчитал иначе: даже если материалы создаются автоматически, ответственность за их публикацию несёт пользователь. Таким образом, сам факт использования нейросети не освобождает от обязанности проверять и контролировать контент.

Схожий подход был применён в другом деле, связанном с переработкой художественного произведения. Автор использовал ИИ для стилизации чужой манги и представил результат на коммерческой выставке, утверждая, что речь идёт о творческой интерпретации. Однако суд посчитал, что для такой переработки необходимо согласие правообладателя. Даже если работу выполнил не человек, а алгоритм, это не отменяет требований закона об авторских правах.

Аналогичная логика прослеживается и за пределами России. В Канаде трибунал рассматривал спор между клиентом и авиакомпанией Air Canada. После смерти родственника пассажир получил от чат-бота обещание компенсации, но компания отказалась выполнять его, сославшись на то, что цифровой агент — самостоятельная система, не связанная с официальными гарантиями перевозчика. Суд встал на сторону клиента, указав, что компания отвечает за действия своих цифровых инструментов, независимо от степени их автономности.

Эти случаи объединяет общий вывод: использование нейросетей не снимает ответственности с человека или компании. Автоматизация процессов не может служить оправданием в спорах о нарушении прав, и именно пользователь, владелец или интегратор ИИ-системы становится стороной, к которой предъявляются претензии.

Итого

Все вышеизложенное сводится по сути к четырем выводам:

  1. ИИ пока не может полноценно заменить человека и требует критического отношения к своим рекомендациям. Любой сгенерированный машиной контент нуждается в проверке и здравой оценке перед применением на практике.

  2. ИИ не принимает решения и не несет за них ответственность. На ком эта ответственность – вопрос еще не решен на законодательном уровне, но в судах все чаще ее несет пользователь (будь то бизнес или частное лицо). 

  3. Проблема «черного ящика» – большая проблема, и ее надо решать, чтобы расширить применение ИИ, в области права в том числе. К ней тесно примыкает проблема галлюцинаций, предвзятости моделей и защиты персональных данных. Частично дыру в этой сфере в России закрывают принятые в 2025 году ГОСТы в сфере ИИ и больших моделей, а также Закон о персональных данных. Но совсем частично – работы тут и у законодателей, и у разработчиков – пруд пруди. 

  4. Пока вышеприведенные три пункта имеют место быть, этично и безопасно применять ИИ исключительно в качестве цифрового помощника. То есть, судья может использовать ИИ для ускорения поиска правовой информации или для резюме материалов дела, но никак не для вынесения постановления о виновности/невиновности. Кстати, существует Белая книга этики в сфере ИИ, где, если вдруг кому интересно, можно почитать о многообразии этических, правовых и социальных вызовов технологии.  

Комментарии (0)