Рубрикатор | ![]() |
![]() |
Все новости | ![]() |
Новости отрасли | ![]() |
![]() |
Европа намерена защищать права людей от посягательств ИИ-систем
26 апреля 2021 |
В среду Еврокомиссия опубликовала «Предложения о регулировании искусственного интеллекта на основе европейского подхода» (Proposal for a Regulation on a European approach for Artificial Intelligence) – документ декларирует необходимость полного запрета на применение систем искусственного интеллекта (ИИ) в ряде случаев.
По сведениям D-Russia , объявлены следующие цели регулирования ИИ в Евросоюзе:
- обеспечить, чтобы ИИ-системы на рынке ЕС были безопасны и соответствовали закону об основных правах и ценностях Евросоюза;
- обеспечить правовую определённость использования ИИ-систем, чтобы содействовать инвестициям и инновациям в области ИИ;
- усовершенствовать регулирование, обеспечить эффективное соблюдение существующего законодательства об основных правах и требованиях безопасности применительно к ИИ-системам;
- способствовать развитию единого, нефрагментированного рынка законных, безопасных и надёжных ИИ-систем.
Напомним, что Европа стремится стать сверхдержавой в вопросах этики, морали и кибербезопасности в связи с разработкой и использованием ИИ. Ничего другого ей, впрочем, не остаётся, поскольку ЕС существенно (возможно, даже безнадёжно) отстаёт в развитии технологий ИИ от Китая и США, и в области ИИ может рассматриваться даже как киберколония.
«Благополучную развитую Европу, привыкшую к жизни по веками совершенствовавшимся, устоявшимся правилам, более всего заботит, как сохранить статус-кво в обстановке, быстро меняющейся под давлением новых технологий, в частности, ИИ. Жить по-старому в новых условиях – негласный девиз Евросоюза. Подтверждается это, например, тем, что государственное финансирование ИИ-исследований в ЕС гораздо скромнее того, что тратят на ИИ США и Китай», – таково мнение профессора, директора «Центра Сколтеха» по научным и инженерным вычислительным технологиям для задач с большими массивами данных Максима Фёдорова, участника европейской конференции 2019 года, посвящённой влиянию ИИ на права человека, демократию и верховенство права (подробнее о ней D-Russia.ru писал ранее).
Европейский подход к искусственному интеллекту: этика во-первых, закон во-вторых
Впрочем, тем больше оснований изучить европейский опыт разработки законов об ИИ, регулирования ИИ-систем с упором на достижение этических целей и обеспечение прав человека.
Документ содержит прямые запреты на использование ИИ-систем при определённых условиях и для определённых целей: за нарушение компании могут получить штраф в размере до 6% их глобальной выручки.
Прежде всего запрет касается «удалённой биометрической идентификации» в режиме реального времени в общедоступных местах для целей правоохранительной деятельности (речь о видеонаблюдении и технологии распознавания лиц). Однако упоминание режима реального времени, а также оговорка «если не применяются определённые ограниченные исключения» позволяют предположить, что полиция не будет стеснена в возможностях использовать ИИ-системы для слежки за гражданами. Поскольку есть «ограниченные исключения», есть и возможность прописать в этих исключениях всё, что желательно полиции. Например, если нельзя распознавать лица в реальном времени – значит, можно видео записать, а потом его проанализировать.
Под запрет попали также следующие применения ИИ:
- присвоение человеку «социальных кредитных баллов», ограничивающее его доступ к банковским кредитам и иным ресурсам – по произволу машины, без принятия решения другим человеком;
- любое использование ИИ-систем, способное причинить физический вред людям (например, неконтролируемое врачом назначение лечения ИИ-системой);
- манипулирование поведением людей с помощью «подсознательных сигналов» (насколько люди некритично воспринимают прочитанное в социальных сетях и насколько подвержены влиянию, свидетельствуют результаты многих исследований).
Представлявшая «Предложения…» еврокомиссар по вопросам конкуренции Маргрете Вестагер (Margrethe Vestager) заявила: «Мы запрещаем это вообще, поскольку считаем просто неприемлемым», пишет The Verge.
Принцип «если не запрещено, то разрешено» в отношении ИИ-систем в Европе действовать не будет: документ распределяет ИИ-системы по уровням риска для человека, определяя для каждого уровня свои ограничения.
На нижнем уровне ИИ-системы, работа которых непосредственно с людьми не связана. Таковы, например, самообучающиеся системы фильтрации спама – для них и подобных им систем новое регулирование не будет применяться вообще.
Второй уровень – ИИ-системы ограниченного риска: например, чат-боты для заказа билетов или технологии, потенциально применимые для создания «deep fakes». Регулирование таких систем предусмотрено и будет разработано, но не для них написаны «Предложения…».
Высший уровень – высокорискованные ИИ-системы, управляющие критически важными механизмами, непосредственно влияющие на материальные аспекты жизни людей и на их здоровье. Именно на таких системах документ и сосредоточен. Пример высокорискованных ИИ-систем – беспилотные автомобили.
Для таких ИИ-систем декларируется обязательное использование высококачественных обучающих данных (цель – минимизировать риск «предвзятости», т.е. фиксации в ИИ-системе не обязательно правильной практики, сложившейся к моменту обучения нейросети), обязательный «надзор» со стороны людей, подробное документирование, позволяющее регулятору и гражданам понять, как «рассуждает» ИИ. В первую очередь это относится к ИИ-системам, непосредственно взаимодействующим с людьми.
«Предложения…» Еврокомиссии при ближайшем рассмотрении не содержат ничего нового, ничего такого, о чём не было бы сказано ранее специалистами или примкнувшими к ним представителями других организаций, далёких от науки и технологий.
Ценность европейских «Предложений…» состоит в самом факте их появления, в попытке кодифицировать в юридически значимом тексте этические принципы использования обслуживающих человека машин, способных к самостоятельному принятию решений.
Документ ставит, но ещё не решает такую задачу. Для создания действующих законов об ИИ потребуются, очевидно, годы.
Источник: D-Russia
Заметили неточность или опечатку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter. Спасибо!
Оставить свой комментарий:
Комментарии по материалу
Данный материал еще не комментировался.