ЕС решил ограничить использование Искусственного Интеллекта. Европейский Союз хочет избежать плохого сценария, к которому может привести искусственный интеллект. Стоит только подумать о жутких технологиях распознавания лиц, походки или других технологиях “цифрового концлагеря”, которые уже воплощают в жизнь в Китае. Но при этом, ЕС хочет остаться конкурентоспособным на рынке технологий, и повысить свой потенциал для экономики в целом.
ЕС запретит использование систем искусственного интеллекта “высокого риска”
Согласно проекту новых регуляций Еврокомиссии, пишет POLITICO, ЕС полностью запретит определенные виды использования систем искусственного интеллекта «высокого риска» и ограничит влияние технологических гигантов, если они не соответствуют данным стандартам. Компании, которые не соблюдают правила, могут быть оштрафованы на сумму до 20 миллионов евро или 4% от их оборота. Комиссия представит свое постановление 21 апреля 2021 года.
Правила являются первыми в своем роде. Эти правила регулируют использование искусственного интеллекта (технологий машинного обучения), и ЕС стремится подчеркнуть свой уникальный гуманистический подход. Еврокомиссия не хочет оставлять мощные технологические компании наедине с собственными устройствами, как в США, и не хочет идти по пути Китая в использовании технологий для создания кибер утопии.
ADVICE уже писал о проблеме использования искусственного интеллекта в судебной системе .
Вместо этого ЕС заявляет, что хочет «ориентированного на человека» подхода, который не только способствует развитию технологий, но и не дает технологиям угрожать строгим стандартам защиты приватности и обработки персональных данных.
ЕС запретит использование ИИ в HR, банковской, судебной и других сферах
Это означает, что будут приветствоваться системы искусственного интеллекта, которые оптимизируют производство, моделируют изменение климата или делают энергосистему более эффективной. Но используемые в ЕС алгоритмы ИИ, которые сканируют резюме в HR сфере, технологии оценки кредитоспособности, отбор выдачи пособий по социальному обеспечению или заявлений о предоставлении убежища или визы, технологий “помощи судьям” в принятии решений, будут отмечены как “высокорисковые” и будут подлежат дополнительной проверке.
Системы оценки “социального рейтинга”, которые запущены в Китае для отслеживания лояльности людей и предприятий по отношению к государству, классифицируются как «противоречащие ценностям ЕС» и будут запрещены.
ЕС запретит системы ИИ, которые могут причинять вред людям
В ЕС также хотят запретить системы ИИ, которые могут причинять вред людям:
- Манипулировать поведением, мнениями или решениями людей;
- Использовать персональные или массовые уязвимости людей;
- Системы Искусственного Интеллекта, созданные для массовой слежки и контроля.
Но для использования ИИ на людях ЕС делает исключения
Но для использования ИИ на людях ЕС делает исключения, позволяющие властям применять технологии, если они борются с серьезными преступлениями. Например, использование технологии распознавания лиц в общественных местах может быть разрешено, если это ограничено по времени и географическому положению. Еврокомиссия заявила, что это будет позволяться в исключительных случаях, когда сотрудники правоохранительных органов могут задействовать технологию распознавания лиц с камер видеонаблюдения, например, для поиска террористов, ликвидации угроз безопасности.
Исключение, вероятно, сделано для того, чтобы успокоить такие страны, как Франция, которая стремится интегрировать ИИ в свой аппарат безопасности, и противостоит активистам защиты цифровых прав и конфиденциальности, которые лоббировали полный запрет таких видов использования.
«Предоставление национальным властям права решать, где использовать ИИ, а де нет, создаст серые зоны, которые у нас уже есть в действующем законодательстве и привели к злоупотреблениям», – сказала Элла Якубовска из группы цифровых прав EDRi.
ЕС против дискриминации ИИ по отношению к меньшинствам
ЕС также стремится избегать проблем, связанных с рассовыми и гендерными предрассудками, которые мешали развитию технологий с самого начала. Одно из требований Комиссии заключается в том, чтобы не «включать какие-либо преднамеренные или непреднамеренные предубеждения», которые могут привести к дискриминации людей.
ЕС создаст новый орган – Европейский Совет по Искусственному Интеллекту
В проекте также предлагается, что ЕС создаст новый орган – Европейский Совет по Искусственному Интеллекту, в состав которого войдут : по одному представителю от страны ЕС, орган ЕС по защите данных и представитель Европейской комиссии. Совет будет контролировать применение закона и делиться передовым опытом.
Промышленность, скорее всего, не согласится со строгими правилами, которые, по их словам, сделают рынок ЕС менее привлекательным и побудят европейских новаторов начать работу в других юрисдикциях.
Читайте также : Внедрение искусственного интеллекта в суде первой инстанции в Украине
Строгие правила также могут поставить ЕС под прицел своих союзников. США, которые гораздо больше озабочены противодействием Китаю и чьи компании, вероятно, будут подпадать под это регулирование, предпочли бы более слабый законопроект.
ЕС придется сотрудничать с США в сфере развития ИИ
В интервью Эрик Шмидт, бывший глава Google и председатель Комиссии национальной безопасности США по искусственному интеллекту (NSCAI), сказал, что европейская стратегия не будет успешной, чтобы конкурировать с другими .
«Европе необходимо будет сотрудничать с Соединенными Штатами на этих ключевых платформах», – сказал Шмидт, имея в виду крупные американские технологические компании, которые доминируют в разработке технологий искусственного интеллекта.
Применение ИИ с технической стороны
ADVICE уже писал, что алгоритмы ИИ, основываясь на данных подсудимого, сравнивает его доход, семейное положение, возраст и прочие параметры с параметрами осужденных, которые повторно шли на преступления.
То есть, если Вы – афроамериканец, то шанс на условно досрочное освобождение у Вас ниже, так как национальные меньшинства в США статистически чаще возвращаются к преступному делу, как и люди с низким уровнем дохода, или те, кто не имеет высшего образования и т.д.
Основная причина проблем заключается в том, что алгоритмы ИИ оценивают подсудимого только на основе статистических принципов, фактически сравнивая вас с любым другим человеком с “похожими” характеристиками. ИИ не может оценить реальное положение дел, вне зависимости от того, о каком человеке идет речь и каковы были его мотивы, он только может сравнить одни значения и найти “похожие” в своей базе.