Юридический факультет США провел судебный процесс, где вердикт выносили ChatGPT, Grok и Claude
Университет Северной Каролины провел учебное уголовное разбирательство, в котором роли присяжных играли ИИ-модели. Эксперимент имитировал 2036 год — время, когда гипотетический закон разрешает использовать искусственный интеллект вместо жюри. Цель — оценить точность, скорость и предвзятость алгоритмов при анализе правовых сценариев.
Юридический факультет Университета Северной Каролины провел уникальный образовательный эксперимент: полноценное судебное заседание по уголовному делу, в котором роль присяжных была поручена трем языковым моделям — ChatGPT (OpenAI), Grok (xAI) и Claude (Anthropic). Это — одна из первых попыток смоделировать использование ИИ для принятия юридических решений в условиях, максимально приближенных к реальному судопроизводству.
Судебное действие было перенесено в 2036 год, в рамках которого участникам предлагалось представить, что в США действует закон «Об использовании ИИ в уголовном правосудии», разрешающий замену жюри присяжных алгоритмами. На скамье подсудимых — вымышленный подросток Генри Джастас, обвинённый в ограблении белого школьника. Выбор сюжета не случаен: организаторы учитывали статистику, согласно которой в реальных судах США раса, пол и социальный статус влияют на решения жюри, особенно в делах с межрасовыми конфликтами.

Процесс проходил в формальном режиме: студенты исполняли роли прокурора, защитника, потерпевшего и свидетелей. Судья — профессор уголовного права Джозеф Кеннеди — руководил ходом дела, соблюдал процедуру и принимал доказательства. Весь текст, включая показания, улики, речи сторон и реакцию зала, передавался в три модели через текстовый интерфейс. Условия были одинаковыми: каждая модель получила доступ ко всем материалам дела и должна была вынести вердикт — «виновен» или «не виновен» — после заключительных речей.

Вердикты моделей на момент проведения заседания не публиковались. После завершения процесса запланирован их анализ совместно с участием юристов, философов и специалистов по данным. Организаторы определили четыре ключевых аспекта, которые будут оцениваться:
— Точность: насколько ИИ корректно воспроизводит факты, не искажает последовательность событий, правильно классифицирует доказательства;
— Эффективность: позволяет ли автоматизация сократить сроки процесса и затраты на участие присяжных;
— Предвзятость: воспроизводит ли модель системные стереотипы, связанные с расой, возрастом или социальным положением;
— Легитимность: признаёт ли общество решение, вынесенное непрозрачным алгор не может быть перепроверено, не имеет права на объяснение и не подотчётно обществу.

Особое внимание уделяется вопросу доверия: даже если ИИ выносит более объективные решения, будет ли общество считать справедливым приговор, сформированный за закрытыми API частной компании? Как обеспечить контроль над логикой вывода, если модель работает как чёрный ящик?

Организаторы отмечают, что хотя ИИ пока не используется в реальных судах, он уже применяется стихийно: адвокаты используют его для подготовки ходатайств, прокуроры — для анализа документов, судьи — для проверки прецедентов. Это создаёт неравные условия: те, кто имеет доступ к мощным моделям, получают преимущество в подготовке. Эксперимент направлен на то, чтобы вывести этот процесс из тени и начать открытую дискуссию о границах применения ИИ в правовой системе.

Результаты эксперимента станут основой для дальнейших исследований в области цифрового правосудия, но уже сейчас очевидно: внедрение ИИ в судебную систему — не вопрос технической готовности, а вызов этики, прозрачности и демократического контроля.
© 27.10.2025
Контакты:
info@smartinfra.ru
105118, г. Москва,
ул. Буракова, 27 к3,
3 этаж, офис 322

© 2025