GPT-5 против юристов: почему идеальный судья – плохой судья Обложка: Skyread

GPT-5 против юристов: почему идеальный судья – плохой судья

Новости
Главное:

  • GPT-5 при выполнении юридического эксперимента показал 100% точность в применении юридических норм, превзойдя 61 федерального судью США, у которых показатель составил 52%.
  • Другие модели искусственного интеллекта, включая Gemini 3 Pro и GPT-4.1, показали разный уровень соответствия закону, от 100% до 50%, что близко к случайному выбору.
  • Авторы исследования делают акцент на том, что буквальное следование закону ИИ — не всегда достоинство, так как живые судьи способны учитывать справедливость и отходить от строгого формализма.

Профессор права Чикагского университета Эрик Познер вместе с исследователем Шивамом Сараном воспроизвели известный юридический эксперимент с участием федеральных судей США, заменив их на модель GPT-5. В ходе теста ИИ задачей было определить применимое право в гипотетическом деле о дорожно-транспортном происшествии, учитывая три переменных — строгость закона, сочувствие к сторонам спора и местоположение аварии. Результаты оказались впечатляющими: GPT-5 точно применил юридические нормы во всех случаях, тогда как живые судьи достигли лишь 52% точности.

Исследование включало и другие модели искусственного интеллекта: Gemini 3 Pro также достиг 100% точности, Gemini 2.5 Pro — 92%, o4-mini — 79%, Llama 4 Maverick — 75%. В то же время Llama 4 Scout и GPT-4.1 продемонстрировали лишь 50%, что соответствует случайному выбору.

Тем не менее, исследователи подчеркивают, что высокий формализм ИИ не обязательно является достоинством. Живые судьи склонны отходить от строгого применения закона, если его буква ведет к несправедливому результату, — именно эта гибкость и способность учитывать нюансы придает справедливость судебным решениям. Искусственный интеллект, следуя только формальному применению нормы, лишён этой возможности, что вызывает вопрос, насколько общество готово принять решения, основанные исключительно на букве закона без человеческого суждения.

Подобные эксперименты авторам уже известны: в предыдущей работе с GPT-4o на деле о военных преступлениях выявлено, что модель тоже действует скорее формалистично, чем учитывая контекст и моральные принципы.

В эпоху растущего внедрения ИИ в юридическую практику сочетаемость точности и справедливости по-прежнему остаётся ключевой задачей. Вопрос, какую роль искусственный интеллект может занять в судебной системе, если общество требует не только законности, но и справедливости, остаётся открытым и требует дальнейшего обсуждения.

Tagged