Целью проекта является защита фундаментальных прав, демократии, верховенства закона и экологической устойчивости от высокорискованного искусственного интеллекта, а также стимулирование инноваций и утверждение Европы в качестве лидера в этой области. Регламент устанавливает обязательства в отношении ИИ, исходя из его потенциальных рисков и уровня воздействия.
Запрещенные приложения
Новые правила запрещают определенные приложения искусственного интеллекта, которые угрожают правам граждан, в том числе системы биометрической категоризации, основанные на чувствительных характеристиках, а также нецелевое извлечение изображений лиц из Интернета или записей камер видеонаблюдения для создания баз данных распознавания лиц. Распознавание эмоций на рабочем месте и в школах, социальный рейтинг, прогнозирующая полицейская деятельность (когда она основана исключительно на профилировании человека или оценке его характеристик) и искусственный интеллект, который манипулирует поведением человека или использует его уязвимости, также будут запрещены.
Исключения для правоохранительных органов
Использование систем биометрической идентификации (СБИ) правоохранительными органами в принципе запрещено, за исключением исчерпывающе перечисленных и узко определенных ситуаций. RBI «в реальном времени» может быть развернут только при соблюдении строгих мер безопасности, например. его использование ограничено во времени и географическом охвате и требует специального предварительного судебного или административного разрешения. Такое использование может включать, например, целенаправленный поиск пропавшего человека или предотвращение террористической атаки. Использование таких систем постфактум («пост-дистанционный RBI») считается вариантом использования с высоким уровнем риска, требующим судебного разрешения, связанного с уголовным преступлением.
Обязательства для систем высокого риска
Четкие обязательства также предусмотрены для других систем искусственного интеллекта с высоким уровнем риска (из-за их значительного потенциального вреда здоровью, безопасности, основным правам, окружающей среде, демократии и верховенству закона). Примеры использования ИИ с высоким уровнем риска включают критически важную инфраструктуру, образование и профессиональную подготовку, занятость, основные частные и государственные услуги (например, здравоохранение, банковское дело), определенные системы правоохранительных органов, миграцию и управление границами, правосудие и демократические процессы (например, влияние на выборы). . Такие системы должны оценивать и снижать риски, вести журналы использования, быть прозрачными и точными, а также обеспечивать человеческий контроль. Граждане будут иметь право подавать жалобы на системы ИИ и получать разъяснения по поводу решений, основанных на системах ИИ высокого риска, которые затрагивают их права.
Требования прозрачности
Системы искусственного интеллекта общего назначения (GPAI) и модели GPAI, на которых они основаны, должны соответствовать определенным требованиям прозрачности, включая соблюдение закона ЕС об авторском праве и публикацию подробных обзоров контента, используемого для обучения. Более мощные модели GPAI, которые могут представлять системные риски, столкнутся с дополнительными требованиями, включая проведение оценок моделей, оценку и смягчение системных рисков, а также отчетность об инцидентах.
Кроме того, искусственные или обработанные изображения, аудио- или видеоконтент («дипфейки») должны быть четко обозначены как таковые.
Меры поддержки инноваций и МСП
На национальном уровне необходимо будет создать нормативные «песочницы» и провести тестирование в реальных условиях, а также сделать их доступными для МСП и стартапов для разработки и обучения инновационного ИИ перед его размещением на рынке.
Кавычки
Во время пленарных дебатов во вторник содокладчик Комитета по внутреннему рынку Брандо Бенифеи (S&D, Италия) сказал: «Наконец-то у нас есть первый в мире обязательный закон об искусственном интеллекте, призванный снизить риски, создать возможности, бороться с дискриминацией и обеспечить прозрачность. Благодаря парламенту неприемлемые методы искусственного интеллекта будут запрещены в Европе, а права работников и граждан будут защищены. Теперь будет создан AI Office, который поможет компаниям начать соблюдать правила до их вступления в силу. Мы позаботились о том, чтобы люди и европейские ценности находились в самом центре развития ИИ».
Содокладчик Комитета по гражданским свободам Драгош Тудораке (Renew, Румыния) сказал: «ЕС добился успеха. Мы связали концепцию искусственного интеллекта с фундаментальными ценностями, которые составляют основу нашего общества. Однако впереди еще много работы, выходящей за рамки самого Закона об искусственном интеллекте. ИИ подтолкнет нас к переосмыслению общественного договора, лежащего в основе наших демократий, наших моделей образования, рынков труда и способов ведения войны. Закон об искусственном интеллекте является отправной точкой для новой модели управления, построенной на технологиях. Теперь мы должны сосредоточиться на применении этого закона на практике».
Следующие шаги
Постановление все еще подлежит окончательной проверке юристов-лингвистов и, как ожидается, будет окончательно принято до окончания работы законодательного органа (посредством так называемой процедуры исправления). Закон также должен быть официально одобрен Советом.
Он вступит в силу через двадцать дней после его публикации в официальном журнале и будет полностью применим через 24 месяца после вступления в силу, за исключением: запретов на запрещенные действия, которые будут применяться через шесть месяцев после даты вступления в силу; кодексы практики (через девять месяцев после вступления в силу); правила искусственного интеллекта общего назначения, включая управление (12 месяцев после вступления в силу); и обязательства по системам высокого риска (36 месяцев).
Фон
Закон об искусственном интеллекте напрямую отвечает на предложения граждан Конференции по будущему Европы (COFE), в частности на предложение 12(10) о повышении конкурентоспособности ЕС в стратегических секторах, предложение 33(5) о безопасном и заслуживающем доверия обществе, включая противодействие дезинформации и обеспечение того, чтобы люди в конечном итоге контролировали ситуацию, предложение 35 о продвижении цифровых инноваций, (3) при обеспечении человеческого надзора и (8) заслуживающее доверия и ответственное использование ИИ, установление мер безопасности и обеспечение прозрачности, а также предложение 37 (3) об использовании Искусственный интеллект и цифровые инструменты для улучшения доступа граждан к информации, в том числе для людей с ограниченными возможностями.
Artificial Intelligence Act: MEPs adopt landmark law