искусственный интеллект в судебной системе США и Риск для Украины
В нашу жизнь уже вплотную внедряются алгоритмы машинного обучения, называемый Искусственный Интеллект. Google и FaceBook в своей выдаче предлагает нам читать то, что решил Искусственный Интеллект, а не то, что для вас интереснее и важнее. Но это не все отрасли, которые покоряют алгоритмы машинного обучения.
В США алгоритмы уже определяют риск рецидива и судьбу преступника в судебной системе.
Судьи с помощью ИИ принимают решения о досрочном освобождении, мере и месте отбытия наказания, возможность выхода под залог и многое другое. При внедрении этих систем планировалось, что не предвзятый Искусственный Интеллект будет лишь инструментом в руках судьи, пишет колумнистка “MIT Technology Review” Карен Хао.
Введение Искусственного интеллекта в судебную систему несет несколько проблем:
Первая – этическая.
Она заключается в том, что Судьи с каждым днем будут все больше и больше полагаться на решения алгоритмов ИИ. А фактически решение человека-судьи заменяется решением алгоритма машины.
«Каждый 38-й взрослый американец числится в каком-либо исправительном учреждении, и в определенный момент судьба подсудимого зависит от решений, принятых Искусственным Интеллектом», — утверждает Хао.
Вторая – техническая.
Алгоритм ИИ,основываясь на данных подсудимого,сравнивает его доход,семейное положение,возраст и прочие параметры с параметрами осужденных,которые повторно шли на преступления. То есть, если Вы – афроамериканец, то шанс на условно досрочное освобождение у Вас ниже, так как национальные меньшинства статистически чаще возвращаются к преступному делу, как и люди с низким уровнем дохода, или те, кто не имеет высшего образования и т.д.
Статистическая корреляция и причинно-следственная связь решения ИИ и нейросетей
А проблема заключается в том, что алгоритм оценивает подсудимого только на основе статистических принципов, часто упуская реальное положение дел, вне зависимости от того, о каком человеке идет речь и каковы были его мотивы.
«ИИ путает статистическую корреляцию с причинно-следственной связью. В результате группы людей, которые исторически чаще подвергались давлению со стороны полиции, вновь оказываются в уязвимом положении. В первую очередь это касается меньшинств и беднейших слоев населения», — пишет Хао.
При этом, нет возможности выявить ошибки в расчетах Искусственного Интеллекта, так как исходный код нейросети запатентован и к нему нельзя получить доступ общественности, что несет в себе большую опасность.
В Украине
“Использование алгоритмов ИИ в судебном процессе увеличивает риск уменьшения роли судьи.
В Украине применение таких технологий в ближайшее время кажется очень туманным. Причина этому – четкие процессуальные нормы, в которых этот инструмент принятия решений не предусмотрен.
Само по себе явление Искуственного Интеллекта в судебной системе полезно, но при его жесткой регуляции и прозрачности методик принятия решений, с помощью которых “учится” алгоритм ИИ. Нейросеть должна быть инструментом в руках суда, и суд обязан четко аргументировать принятое решение, которое отличается от решения ИИ. Все это возможно только при полной работоспособности системы, без ошибок в методике принятия решения, сбоев в работе.
Массивы данных, с которыми работает ИИ, должны постоянно обновляться, учитывать изменения в законах и не применять устаревшие данные.” – комментирует Виталий Кулаков, управляющий партнер, адвокат
ADVICE Consulting Group
Phone: +38 (067) 233–50-58
Address: Украина, Киев, ул. Академика Филатова, 22/8, оф. 200