ЕС решил ограничить использование искусственного интеллекта

ЕС решил ограничить использование искусственного интеллекта

ЕС решил ограничить использование Искусственного Интеллекта. Европейский Союз хочет избежать плохого сценария, к которому может привести искусственный интеллект. Стоит только подумать о жутких технологиях распознавания лиц, походки или других технологиях “цифрового концлагеря”, которые уже воплощают в жизнь в Китае. Но при этом, ЕС хочет остаться конкурентоспособным на рынке технологий, и повысить свой потенциал для экономики в целом.

ЕС запретит использование систем искусственного интеллекта “высокого риска”

Согласно проекту новых регуляций Еврокомиссии, пишет POLITICO, ЕС полностью запретит определенные виды использования систем искусственного интеллекта «высокого риска» и ограничит влияние технологических гигантов, если они не соответствуют данным стандартам. Компании, которые не соблюдают правила, могут быть оштрафованы на сумму до 20 миллионов евро или 4% от их оборота. Комиссия представит свое постановление 21 апреля 2021 года.

Правила являются первыми в своем роде. Эти правила регулируют использование искусственного интеллекта (технологий машинного обучения), и ЕС стремится подчеркнуть свой уникальный гуманистический подход. Еврокомиссия не хочет оставлять мощные технологические компании наедине с собственными устройствами, как в США, и не хочет идти по пути Китая в использовании технологий для создания кибер утопии.

ADVICE уже писал о проблеме использования искусственного интеллекта в судебной системе .

Вместо этого ЕС заявляет, что хочет «ориентированного на человека» подхода, который не только способствует развитию технологий, но и не дает технологиям угрожать строгим стандартам защиты приватности и обработки персональных данных.

ЕС запретит использование ИИ в HR, банковской, судебной и других сферах

Это означает, что будут приветствоваться системы искусственного интеллекта, которые оптимизируют производство, моделируют изменение климата или делают энергосистему более эффективной. Но используемые в ЕС алгоритмы ИИ, которые сканируют резюме в HR сфере, технологии оценки кредитоспособности, отбор выдачи пособий по социальному обеспечению или заявлений о предоставлении убежища или визы, технологий “помощи судьям” в принятии решений, будут отмечены как “высокорисковые” и будут подлежат дополнительной проверке.

Системы оценки “социального рейтинга”, которые запущены в Китае для отслеживания лояльности людей и предприятий по отношению к государству, классифицируются как «противоречащие ценностям ЕС» и будут запрещены.

ЕС запретит системы ИИ, которые могут причинять вред людям

В ЕС также хотят запретить системы ИИ, которые могут причинять вред людям:

  • Манипулировать поведением, мнениями или решениями людей;
  • Использовать персональные или массовые уязвимости людей;
  • Системы Искусственного Интеллекта, созданные для массовой слежки и контроля.

Но для использования ИИ на людях ЕС делает исключения

Но для использования ИИ на людях ЕС делает исключения, позволяющие властям применять технологии, если они борются с серьезными преступлениями. Например, использование технологии распознавания лиц в общественных местах может быть разрешено, если это ограничено по времени и географическому положению. Еврокомиссия заявила, что это будет позволяться в исключительных случаях, когда сотрудники правоохранительных органов могут задействовать технологию распознавания лиц с камер видеонаблюдения, например, для поиска террористов, ликвидации угроз безопасности.

Исключение, вероятно, сделано для того, чтобы успокоить такие страны, как Франция, которая стремится интегрировать ИИ в свой аппарат безопасности, и противостоит активистам защиты цифровых прав и конфиденциальности, которые лоббировали полный запрет таких видов использования.

«Предоставление национальным властям права решать, где использовать ИИ, а де нет, создаст серые зоны, которые у нас уже есть в действующем законодательстве и привели к злоупотреблениям», – сказала Элла Якубовска из группы цифровых прав EDRi.

ЕС против дискриминации ИИ по отношению к меньшинствам

ЕС также стремится избегать проблем, связанных с рассовыми и гендерными предрассудками, которые мешали развитию технологий с самого начала. Одно из требований Комиссии заключается в том, чтобы не «включать какие-либо преднамеренные или непреднамеренные предубеждения», которые могут привести к дискриминации людей.

ЕС создаст новый орган – Европейский Совет по Искусственному Интеллекту

В проекте также предлагается, что ЕС создаст новый орган – Европейский Совет по Искусственному Интеллекту, в состав которого войдут : по одному представителю от страны ЕС, орган ЕС по защите данных и представитель Европейской комиссии. Совет будет контролировать применение закона и делиться передовым опытом.

Промышленность, скорее всего, не согласится со строгими правилами, которые, по их словам, сделают рынок ЕС менее привлекательным и побудят европейских новаторов начать работу в других юрисдикциях.

Читайте также : Внедрение искусственного интеллекта в суде первой инстанции в Украине

Строгие правила также могут поставить ЕС под прицел своих союзников. США, которые гораздо больше озабочены противодействием Китаю и чьи компании, вероятно, будут подпадать под это регулирование, предпочли бы более слабый законопроект.

ЕС придется сотрудничать с США в сфере развития ИИ

В интервью Эрик Шмидт, бывший глава Google и председатель Комиссии национальной безопасности США по искусственному интеллекту (NSCAI), сказал, что европейская стратегия не будет успешной, чтобы конкурировать с другими .

«Европе необходимо будет сотрудничать с Соединенными Штатами на этих ключевых платформах», – сказал Шмидт, имея в виду крупные американские технологические компании, которые доминируют в разработке технологий искусственного интеллекта.

Применение ИИ с технической стороны

ADVICE уже писал, что алгоритмы ИИ, основываясь на данных подсудимого, сравнивает его доход, семейное положение, возраст и прочие параметры с параметрами осужденных, которые повторно шли на преступления.

То есть, если Вы – афроамериканец, то шанс на условно досрочное освобождение у Вас ниже, так как национальные меньшинства в США статистически чаще возвращаются к преступному делу, как и люди с низким уровнем дохода, или те, кто не имеет высшего образования и т.д.

Основная причина проблем заключается в том, что алгоритмы ИИ оценивают подсудимого только на основе статистических принципов, фактически сравнивая вас с любым другим человеком с “похожими” характеристиками. ИИ не может оценить реальное положение дел, вне зависимости от того, о каком человеке идет речь и каковы были его мотивы, он только может сравнить одни значения и найти “похожие” в своей базе.

НАПИСАТЬ НАМ