Искусственный интеллект не справляется с ролью судьи
Более десяти лет канадский учёный Рэнди Гебел вместе с коллегами из Японии проводит ежегодные соревнования по юридическому ИИ. Участники должны с помощью алгоритмов анализировать примеры из японского экзамена на адвоката и решить: нарушен ли закон или нет, пишет El.kz со ссылкой на ScienceDirect.
По словам Гебела, именно этот простой ответ «да» или «нет» даётся ИИ сложнее всего. Это ставит под вопрос возможность использования подобных систем в судах, где требуется точность, логика и понимание контекста.
В новой научной статье исследователи описали, какие типы рассуждений нужны машинам, чтобы «думать» как юристы:
- Кейс-логика – анализ похожих дел;
- Правовая логика – применение законов;
- Абдуктивная логика – выстраивание правдоподобной версии событий.
Именно с последним типом мышления ИИ справляется хуже всего: он не умеет делать логические выводы и часто «галлюцинирует» – придумывает факты.
Поэтому, говорит Гебел, надеяться на «всесильного судебного ИИ» пока рано. Скорее всего, появятся разные узкоспециализированные инструменты, а не один универсальный судья-робот.
Совершенного правосудия не существует, – отмечает Гебел. – Важно понять, приносят ли новые технологии больше пользы, чем вреда.
El.kz также писал о том, что соискателей вакансий всё чаще встречают боты.

