AI Act — одобрен. Так что изменит (а что нет) первый полноценный Закон об искусственном интеллекте в ЕС?

Опубликовал
Катерина Даньшина

На прошлой неделе Парламент ЕС проголосовал за принятие Закона об искусственном интеллекте, впервые представленного еще три года назад — фактически документ прошел через последний бюрократический круг, и сейчас приближается к официальному внедрению.

Закон вступит в силу где-то в мае, а первые изменения люди, живущие в ЕС, увидят уже к концу года. Еще предстоит создать регуляторный орган, который будет следить за соблюдением правил, а компаниям отведут три года для адаптации. Так что же именно изменит (а что нет) новое законодательство?

1. Некоторые виды ИИ будут запрещены

Речь идет об искусственном интеллекте, который относят к «высокорисковым системам» (то есть те, которые представляют высокий риск для фундаментальных прав людей, например в сфере здравоохранения, образования и правоохранительной системе), а также к системам с «неприемлемым риском» (например, системы искусственного интеллекта, которые используют «подсознательные, манипулятивные или обманчивые методы, чтобы исказить поведение и помешать принятию обоснованных решений», или эксплуатируют уязвимых людей).

Закон об искусственном интеллекте также запрещает использование программного обеспечения для распознавания лиц в режиме реального времени в общественных местах, а также создание баз данных распознавания лиц путем сканирования Интернета по технологии Clearview AI.

Онлайн-курс "Тестування API" від robot_dreams.
Навчіться працювати з API на просунутому рівні та проводити навантажувальні тестування, щоб виявляти потенційні проблеми на ранніх етапах розробки.
Програма курсу і реєстрація

В то же время правоохранительным органам по-прежнему разрешено использовать конфиденциальные биометрические данные, а также программное обеспечение для распознавания лиц в общественных местах для борьбы с серьезными преступлениями, такими как терроризм или похищения.

2. Использование ИИ должно стать «более очевидным»

Технологические компании обяжут обозначать дипфейки и контент, созданный искусственным интеллектом, а также оповещать людей, когда они взаимодействуют с чат-ботом или другой системой искусственного интеллекта.

Это требование направлено на борьбу с дезинформацией, однако современные исследования все еще отстают от законодательства. Например, предложенные водяные знаки — это все еще экспериментальная технология, которую можно с легкостью подделать.

Однако есть несколько в перспективе эффективных способов — например спецификация C2PA на основе криптографических методов, которая позволит сайтам идентифицировать изображения, созданные ИИ, и обозначать тем или иным образом.

3. На ИИ теперь можно пожаловаться

В ЕС создадут Европейский офис по искусственному интеллекту, куда граждане смогут подавать жалобы на системы искусственного интеллекта в случае причинения вреда и требовать объяснения от компаний.

4. ИИ-компании станут более прозрачными

Компании, которые разрабатывают «общие модели искусственного интеллекта», такие, как языковые модели, должны будут создавать и хранить техническую документацию, показывающую, как они построили модель, соблюдают ли они закон об авторском праве, а также публиковать в целом итог того, какие учебные данные были использованы для модели.

Компании с самыми мощными моделями искусственного интеллекта, такими как GPT-4 и Gemini, получат несколько более обременительные требования — такие, как оценка моделей и ее рисков, обеспечение киберзащиты и отчетность о любых инцидентах, когда система искусственного интеллекта была повреждена. Компании, которые не выполнят требований, столкнутся с большими штрафами, или полным запретом в ЕС.

Штрафы будут колебаться от 7,5 миллиона евро или 1,5% от общего мирового оборота компании (в зависимости от того, что больше) за предоставление неверной информации регуляторам; до 15 миллионов евро или 3% от мирового оборота за нарушение определенных положений закона, таких как обязательства по прозрачности; до 35 миллионов евро, или 7% оборота, за развертывание или разработку запрещенных инструментов ИИ.

Источник: MIT Technology Review

Disqus Comments Loading...