искусственный интеллект в судебной системе

By in
358
искусственный интеллект в судебной системе
искусственный интеллект в судебной системе

В нашу жизнь уже вплотную внедряются алгоритмы машинного обучения, называемый Искуственный Интеллект. Google и FaceBook в своей выдаче предлагает нам читать то, что решил Искуственный Интеллект, а не то, что для вас интереснее и важнее. Но это не все отрасли, которые покоряют алгоритмы машинного обучения.

В США алгоритмы уже определяют риск рецидива
и судьбу преступника в судебной системе.

Судьи с помощью ИИ принимают решения о досрочном освобождении, мере и месте отбытия наказания, возможность выхода под залог и многое другое. При внедрении этих систем планировалось, что непредвзятый Искуственный Интеллект будет лишь инструментом в руках судьи, пишет колумнистка “MIT Technology Review” Карен Хао.

Тут существует несколько проблем:
Первая – этическая.

Она заключается в том, что Судьи с каждым днем будут все больше и больше полагаться на решения алгоритмов ИИ. А фактически решение человека-судьи заменяется решением алгоритма машины.

«Каждый 38-й взрослый американец числится в каком-либо исправительном учреждении, и в определенный момент судьба подсудимого зависит от решений, принятых Искуственным Интеллектом», — утверждает Хао.

Вторая – техническая.

Алгоритм ИИ,основываясь на данных подсудимого,сравнивает его доход,семейное положение,возраст и прочие параметры с параметрами осужденных,которые повторно шли на преступления. То есть, если Вы – афроамериканец, то шанс на условно досрочное освобождение у Вас ниже, так как национальные меньшинства статистически чаще возвращаются к преступному делу, как и люди с низким уровнем дохода, или те, кто не имеет высшего образования и т.д.

Статистическая корреляция и причинно-следственная связь

А проблема заключается в том, что алгоритм оценивает подсудимого только на основе статистических принципов, часто упуская реальное положение дел, вне зависимости от того, о каком человеке идет речь и каковы были его мотивы.

«ИИ путает статистическую корреляцию с причинно-следственной связью. В результате группы людей, которые исторически чаще подвергались давлению со стороны полиции, вновь оказываются в уязвимом положении. В первую очередь это касается меньшинств и беднейших слоев населения», — пишет Хао.

При этом, нет возможности выявить ошибки в рассчетах Искуственного Интеллекта, так как исходный код нейросети запатентован и к нему нельзя получить доступ общественности, что несет в себе большую опасность.

В Украине

“Использование алгоритмов ИИ в судебном процессе увеличивает риск уменьшения роли судьи.

В Украине применение таких технологий в ближайшее время кажется очень туманным. Причина этому – четкие процессуальные нормы, в которых этот инструмент принятия решений не предусмотрен.

Само по себе явление Искуственного Интеллекта в судебной системе полезно, но при его жесткой регуляции и прозрачности методик принятия решений, с помощью которых “учится” алгоритм ИИ. Нейросеть должна быть инструментом в руках суда, и суд обязан четко аргументировать принятое решение, которое отличается от решения ИИ. Все это возможно только при полной работоспособности системы, без ошибок в методике принятия решения, сбоев в работе.

Массивы данных, с которыми работает ИИ, должны постоянно обновляться, учитывать изменения в законах и не применять устаревшие данные.” – комментирует Виталий Кулаков, управляющий партнер, адвокат

ADVICE Consulting Group

Address: Украина, Киев, ул. Академика Филатова, 22/8, оф. 200

54321
(5 votes. Average 5 of 5)
Leave a reply

Ваш e-mail не будет опубликован. Обязательные поля помечены *