6 декабря 2018, 09:31

Совет Европы принял первый регламент для искусственного интеллекта в судебной системе

При этом Европейская комиссия по эффективности правосудия призывает с осторожностью подходить к автоматизации процессов

ПАРИЖ, 6 декабря. /Корр. ТАСС Дмитрий Орлов/. Системы искусственного интеллекта (ИИ) все глубже проникают в нашу жизнь: в лабораториях, на биржах, в смартфонах. Не стала исключением и система правосудия, для которой уже разрабатываются, и в которой используются специализированные программы. В этой связи Совет Европы решил заранее обозначить рамки, в которые неизбежно придется вписывать средства виртуальной помощи работникам судов.

Как отмечается в заявлении европейского института власти, "первый европейский документ, определяющий этические принципы" при работе с ИИ в этой сфере содержит пять пунктов: "соблюдение основных прав и свобод", "отсутствие дискриминации", "качество и безопасность", "прозрачность [алгоритмов]" и "контроль со стороны пользователя". Совет рекомендует использовать эти технологии прежде всего для улучшения анализа судебных прецедентов и сравнения законодательств разных государств, автоматизации юридических консультаций и предоставления официальных бланков, а также для "создания новых стратегических инструментов".

"Согласно мнению Европейской комиссии по эффективности правосудия (CEPEJ), которое изложено в хартии, использование ИИ в этой сфере может помочь повысить эффективность и качество работы судов, однако его следует применять ответственно", - говорится в заявлении Совета Европы.

Недостатки искусственного интеллекта

В то же время, CEPEJ призывает с осторожностью подходить к автоматизации процессов при поиске альтернативных мер урегулирования гражданских исков, при использовании онлайн-платформ разрешения споров. Кроме того, с крайней осторожностью эксперты советуют относиться к количественным показателям, к которым может апеллировать программа при анализе прецедентов, а также к использованию ИИ для анализа склонности к преступлению того или иного человека.

В качестве примера неудачного применения программ в хартии приводится алгоритм американской программы COMPAS. Согласно данным неправительственной организации, которая решила проверить эффективность этого инструмента, программа практически вдвое чаще, чем у других групп, указывала на возможный риск повторного преступления, когда речь заходила об афро-американцах. Это можно было бы списать на определенные социально-экономические тенденции в тех или иных группах, однако исследователи указали, что ИИ может назвать рецидивистом даже человека, который никогда не сидел в тюрьме, но исправно ответил на вопросы в электронной анкете.

Вообще по части использования таких систем в уголовном праве эксперты расходятся во мнениях. С одной стороны, ИИ ни от кого не зависит и делает выводы на основе чистых данных, будь то факты из биографии или положения конституции. С другой, возникает вопрос прозрачности разработки алгоритма, а также тот факт, что программа принимает исходные данные за аксиому и вместо того, чтобы исправить несовершенства системы будет их лишь умножать.

Реальное применение ИИ

На сегодняшний день, согласно данным CEPEJ, системы ИИ уже полноценно применяются в системах правосудия нескольких стран. В документе приводится "неполный список" программ, распространенных во Франции, Великобритании и США. Согласно их описанию, данные инструменты используются в основном для анализа данных, однако если во французских программах весь функционал к этому и сводится, причем только в пределах гражданского права, то в США и Великобритании сфера применения такого софта включает в себя и уголовные дела.