Rambler's Top100
Все новости Новости отрасли

В ЕС согласованы положения нового закона об искусственном интеллекте

11 декабря 2023

Европарламент и Совет ЕС предварительно согласовали основные положения готовящегося к принятию закона AI Act об искусственном интеллекте (ИИ).

Как пишет D-Russia  со ссылкой на соообщение Еврокомиссии, документ устанавливает требования по безопасности к разработчикам ИИ-моделей, вводит крупные штрафы для нарушителей.

ИИ-системы отнесены к нескольким группам риска:
  • минимальный риск — в эту категорию попадает бо́льшая часть ИИ-систем (рекомендательные системы, спам-фильтры на основе ИИ) — эти системы признаются либо полностью безопасными, либо представляющими минимальную угрозу для пользователей;
  • высокий риск – к таким системам отнесены, например, определённая критическая инфраструктура в сфере водоснабжения, поставок газа и электричества, медицинские устройства, а также системы, задействованные в охране границ, соблюдении общественного порядка, отправлении правосудия, «демократических процессах», биометрической идентификации, категоризации, распознавании эмоций — подобные ИИ-системы обязаны соблюдать жёсткие требования в таких вопросах, как система минимизации рисков, «массивы данных высокого качества», регистрация операций, подробная документация, чёткая пользовательская информация, надзор со стороны человека, высокая эксплуатационная надёжность, точность, кибербезопасность;
  • неприемлемый риск — сюда включены ИИ-системы или приложения, которые манипулируют поведением человека с целью ограничить свободный выбор пользователей, например, игрушки с голосовым помощником, «поощряющие опасное поведение детей», или системы, которые допускают составление социальных рейтингов правительствами или компаниями, а также определённые виды прогностической деятельности полиции — такие системы подлежат полному запрету (за некоторыми исключениями).
  • риск для открытости — в данный список включены в том числе чат-боты; в документе указано, что пользователи должны быть информированы о том, что взаимодействуют с машиной, дипфейки и другой сгенерированный ИИ контент следует маркировать соответствующим образом, граждан необходимо информировать в случае задействования систем биометрической категоризации или распознавания эмоций, вдобавок разработчики ИИ-систем должны будут создавать их таким образом, чтобы «синтетический текстовый, графический, аудио- и видеоконтент содержал маркировку в машиночитаемом формате, а также распознавался в качестве искусственно сгенерированного или манипулятивного».
Документ вводит специальные правила для ИИ-моделей общего назначения (General Purpose AI Models). Для каждой высокопроизводительной модели, способной нести системный риск, предусматриваются дополнительные юридические обязательства, относящиеся к сфере управления рисками, мониторинга значимых инцидентов, анализа модели, состязательного тестирования (более детальной информации не приведено — ред.).

Вместе с тем AI Act не будет применяться в случае, если он негативно повлияет «на компетенции какой-либо страны ЕС в области национальной безопасности или уполномоченной в этом вопросе организации». Из-под действия закона также выведены системы, которые используются только в военных и оборонных целях, в научной деятельности, а также людьми в непрофессиональной деятельности.

Для нарушителей AI Act предусмотрены оборотные штрафы 7,5-35 миллионов евро. За имплементацию положений закона на национальных уровнях будут отвечать надзорные органы стран-членов ЕС, координировать их усилия станет специально создаваемый при Еврокомиссии орган — Управление по ИИ (AI Office).

Теперь соглашение предстоит оформить Европарламенту и Совету ЕС формально. Закон вступит в силу через 20 дней после публикации текста в официальном журнале Евросоюза. Положения AI Act начнут применяться через два года после вступления закона в силу. При этом прописанные запреты начнут действовать уже через шесть месяцев, а нормы в отношении ИИ-моделей общего назначения — через год.

Источник: D-Russia

Заметили неточность или опечатку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter. Спасибо!

Оставить свой комментарий:

Для комментирования необходимо авторизоваться!

Комментарии по материалу

Данный материал еще не комментировался.

Продолжение использования сайта пользователем интерпретируется как согласие на обработку фрагментов персональных данных (таких, как cookies) для целей корректной работы сайта.

Согласен