Впервые в мире: закон об искусственном интеллекте

14 марта 2024 года Европарламент одобрил Закон об искусственном интеллекте, который обеспечивает безопасность и соблюдение основных прав, одновременно стимулируя инновации.

Закон предусматривает:

  • Гарантии в отношении искусственного интеллекта общего назначения
  • Ограничения на использование систем биометрической идентификации правоохранительными органами
  • Запреты на социальный скоринг и искусственный интеллект, используемый для манипулирования уязвимостями пользователей
  • Право потребителей подавать жалобы и получать содержательные объяснения

Регламент, согласованный на переговорах с государствами-членами в декабре 2023 года, был одобрен депутатами Европарламента 523 голосами «за», 46 – «против» и 49 воздержавшихся.

Регламент устанавливает обязательства для искусственного интеллекта на основе его потенциальных рисков и уровня воздействия.

Запрещенные приложения

Новые правила запрещают определенные приложения искусственного интеллекта, которые угрожают правам граждан, включая системы биометрической категоризации на основе конфиденциальных характеристик и нецелевое извлечение изображений лиц из Интернета или видеозаписей камер видеонаблюдения для создания баз данных распознавания лиц. Распознавание эмоций на рабочем месте и в школах, социальный скоринг, прогнозирующая полицейская деятельность (когда она основана исключительно на профилировании человека или оценке его характеристик) и искусственный интеллект, который манипулирует поведением человека или использует уязвимость людей, также будут запрещены.

Исключения для правоохранительных органов

Использование систем биометрической идентификации (RBI) правоохранительными органами запрещено в принципе, за исключением исчерпывающе перечисленных и узко определенных ситуаций. RBI в режиме реального времени может быть развернут только при соблюдении строгих мер предосторожности, например, его использование ограничено по времени и географическому охвату и подлежит специальному предварительному судебному или административному разрешению. Такое использование может включать, например, целенаправленный поиск пропавшего человека или предотвращение террористической атаки. Использование таких систем постфактум считается случаем использования с высоким риском, требующим судебного разрешения и связанным с уголовным преступлением.

Обязательства для систем высокого риска

Четкие обязательства также предусмотрены для других систем искусственного интеллекта высокого риска (из-за их значительного потенциального ущерба здоровью, безопасности, основным правам, окружающей среде, демократии и верховенству закона). Примеры использования ИИ с высоким уровнем риска включают критическую инфраструктуру, образование и профессиональную подготовку, трудоустройство, основные частные и государственные услуги (например, здравоохранение, банковское дело), определенные системы правоохранительных органов, миграцию и пограничный контроль, правосудие и демократические процессы (например, влияние на выборы). Такие системы должны оценивать и снижать риски, вести журналы использования, быть прозрачными и точными и обеспечивать надзор со стороны человека. Граждане будут иметь право подавать жалобы на системы искусственного интеллекта и получать разъяснения по поводу решений, основанных на системах искусственного интеллекта высокого риска, которые затрагивают их права.

Требования к прозрачности

Системы искусственного интеллекта общего назначения (GPAI) и модели GPAI, на которых они основаны, должны соответствовать определенным требованиям прозрачности, включая соответствие законодательству ЕС об авторском праве и публикацию подробных резюме контента, используемого для обучения. К более мощным моделям GPAI, которые могут представлять системные риски, будут предъявляться дополнительные требования, включая проведение оценки моделей, оценку и смягчение системных рисков, а также отчетность об инцидентах.

Кроме того, искусственные или поддельные изображения, аудио- или видеоконтент (“фейки”) должны быть четко обозначены как таковые.

Меры по поддержке инноваций и малого и среднего бизнеса

На национальном уровне должны быть созданы нормативные песочницы и тестирование в реальных условиях, которые должны быть доступны малым и средним предприятиям и стартапам для разработки и обучения инновационного ИИ перед его размещением на рынке.

Цитаты

Во время пленарных дебатов содокладчик Комитета по внутреннему рынку Брандо Бенифеи (S & D, Италия) сказал: “Наконец-то у нас есть первый в мире обязательный закон об искусственном интеллекте, направленный на снижение рисков, создание возможностей, борьбу с дискриминацией и обеспечение прозрачности. Благодаря парламенту в Европе будут запрещены неприемлемые методы использования искусственного интеллекта и будут защищены права работников и граждан. Теперь будет создан офис искусственного интеллекта для оказания поддержки компаниям в том, чтобы они начали соблюдать правила до того, как они вступят в силу. Мы позаботились о том, чтобы люди и европейские ценности были в самом центре развития искусственного интеллекта ”.

Содокладчик Комитета по гражданским свободам Драгош Тудораче (Renew, Румыния) сказал: “ЕС добился своего. Мы связали концепцию искусственного интеллекта с фундаментальными ценностями, которые составляют основу наших обществ. Однако впереди предстоит большая работа, выходящая за рамки самого Закона об искусственном интеллекте. ИИ подтолкнет нас к переосмыслению общественного договора, лежащего в основе наших демократий, наших моделей образования, рынков труда и способов ведения войны. Закон об искусственном интеллекте является отправной точкой для новой модели управления, основанной на технологиях. Теперь мы должны сосредоточиться на применении этого закона на практике ”.

Следующие шаги

Регламент все еще подлежит окончательной проверке юристами-лингвистами и, как ожидается, будет окончательно принят до окончания работы законодательного органа (посредством так называемой процедуры исправления). Закон также должен быть официально одобрен Советом.

Он вступит в силу через двадцать дней после его публикации в официальном журнале и будет полностью применяться через 24 месяца после вступления в силу, за исключением: запретов на запрещенную практику, которые будут применяться через шесть месяцев после даты вступления в силу; кодексов практики (через девять месяцев после вступления в силу); правил искусственного интеллекта общего назначения, включая управление (через 12 месяцев после вступления в силу); и обязательств для систем высокого риска (через 36 месяцев).

Источник


Поделиться
Класснуть
Отправить