1. Главная
  2. Публикации
  3. Технологии
  4. Обзор Акта об искусственном интеллекте Европейского Союза

Обзор Акта об искусственном интеллекте Европейского Союза

Юридическая фирма "Надмитов, Иванов и Партнеры" представляет вашему вниманию обзор проекта Акта ЕС об искусственном интеллекте.

21 апреля 2021 г. Европейский союз опубликовал проект Акта об искусственном интеллекте (Artificial Intelligence Act). В случае его принятия данный акт станет первым в мире законом, детально регулирующим системы, функционирующие на искусственном интеллекте.

Прежде всего, акт ЕС направлен на преодоление фрагментированного регулирования в области искусственного интеллекта и создание единого регуляторного режима для стран ЕС. Планируется создание Европейского совета по ИИ из представителей государств, которые входят в ЕС. В каждом государстве-участнике ЕС должен быть создан компетентный орган власти для осуществления надзорной деятельности за соблюдением Акта о ИИ.

Предлагается различать регулирование в зависимости от уровня риска, связанного с той или иной системой искусственного интеллекта. Выделяют следующие группы системы в зависимости от уровня риска:

  1. запрещенные системы;
  2. системы высокого риска;
  3. системы малого или минимального риска.

Запрещенные системы искусственного интеллекта

К таким системам ст. 4 проекта предлагает отнести:

  • Системы, действующие на подсознание для причинения физического или психологического вреда человеку
  • Системы, используемые для установления слабых сторон определенных социальных групп
  • Системы социального кредита (social scoring);
  • Системы биометрической идентификации в режиме реального времени в публичных местах.

Системы высокого риска

Для выявления систем ИИ с высоким рисков необходимо проверить систему на соответствие двум критериям: 1) высокая вероятность причинения ущерба; 2) высокий уровень потенциального ущерба (тяжесть).

Под ущербом понимается причинение вреда жизни и здоровью человека, вмешательство в демократические процессы и деятельность органов власти, существенное нарушение функционирования экономической инфраструктуры, неблагоприятное воздействие на финансовые, экономические и карьерные возможности человека, на фундаментальные права человека и т.д. Методику определения вероятности наступления ущерба и его тяжести еще предстоит разработать Еврокомиссии.

Примеры таких систем в Акте уже приведены:

  • Системы, которые используют биометрическую идентификацию в публичном месте;
  • Системы, которые являются частью критической инфраструктуры;
  • Системы, которые используют в службах реагирования;
  • Системы, которые используются для определения людей, которые будут получать образование, работу, кредит в банке;
  • Системы предотвращения преступлений;
  • Системы, которые используются миграционными органами, судебными органами и др.

В данную категорию попадают все системы, имеющие потенциальный риск для здоровья, безопасности, прав человека. К таким системам предъявляются повышенные требования по проверкам на соответствие нормам безопасности, технической документации, инструкциям для обеспечения прозрачности использования систем. Провайдер системы высокого риска должен утвердить документацию, которая предусматривает все возможные риски на протяжении эксплуатации ИИ, а также комплекс мер, которые помогли бы предотвратить причинение вреда. Кроме того, провайдер системы высокого риска должен постоянно взаимодействовать с уполномоченными органами по вопросам прозрачности ИИ. Данные требования распространяются и на провайдеров, находящихся за пределами ЕС. Такое регулирование может повлечь увеличение издержек для малого и среднего бизнеса ИИ по выходу на рынок ЕС.

Проверку на соответствие регуляторным требованиям системы ИИ можно провести внутри организации перед началом ее коммерческой реализации. Однако, если планируется использовать систему в качестве компонента безопасности потребительских товаров и систем распознавания лиц, то такую проверку должна проводить третья сторона. Актом предусматривается административный штраф в сумме до 20 млн евро, а в случае предприятий – до 4% от оборота на мировых рынках за предыдущий отчетный период (статья 63 Постановления)..

Системы низкого риска

Функционирование систем низкого риска обязательно должно сопровождаться уведомлением ее пользователей о том, что они взаимодействуют с системой ИИ. Однако, в целом для таких систем предусмотрен режим саморегулирования, когда компании сами должны отслеживать безопасность деятельности таких систем.

Юридическая фирма «Надмитов, «Надмитов, Иванов и Партнеры» консультирует по вопросам технологий, в том числе по вопросам регулирования искусственного интеллекта.