AI Act — схвалено. То що змінить (а що ні) перший повноцінний Закон про штучний інтелект у ЄС?

Опубликовал
Катерина Даньшина

Минулого тижня Парламент ЄС проголосував за схвалення Закону про штучний інтелект, вперше представленого ще три роки тому — фактично документ пройшов через останнє бюрократичне коло, і нині наближається до офіційного впровадження.

Закон набуде чинності десь у травні, а перші зміни люди, що живуть в ЄС, побачать вже до кінця року. Ще належить створити регуляторний орган, який слідкуватиме за дотриманням правил, а компаніям відведуть три роки для адаптації. То що ж саме змінить (а що ні) нове законодавство?

1. Деякі види ШІ будуть заборонені

Мова йде про штучний інтелект, який відносять до «високоризикових систем» (тобто ті, які становлять високий ризик для фундаментальних прав людей, наприклад у сфері охорони здоров’я, освіти та поліції), а також до систем із «неприйнятним ризиком» (наприклад, системи штучного інтелекту, які використовують «підсвідомі, маніпулятивні або оманливі методи, щоб спотворити поведінку та завадити прийняттю обґрунтованих рішень», або експлуатують уразливих людей).

Закон про штучний інтелект також забороняє використання програмного забезпечення для розпізнавання обличчя в режимі реального часу в громадських місцях, а також створення баз даних розпізнавання облич шляхом сканування Інтернету за технологією Clearview AI.

Онлайн-інтенсив "Як створити рекомендаційну модель за 2 дні" від robot_dreams.
Ви пройдете етапи вибору, навчання, оцінки рекомендаційної моделі для електронної бібліотеки та отримаєте індивідуальний фідбек від лекторки.
Приєднатись до інтенсиву

Водночас правоохоронним органам як і раніше дозволено використовувати конфіденційні біометричні дані, а також програмне забезпечення для розпізнавання обличчя в громадських місцях для боротьби з серйозними злочинами, такими як тероризм або викрадення.

2. Використання ШІ має стати «більш очевидним»

Технологічні компанії зобов’яжуть позначати дипфейки та контент, створений штучним інтелектом, а також сповіщати людей, коли вони взаємодіють із чат-ботом чи іншою системою штучного інтелекту.

Ця вимога спрямована на боротьбу з дезінформацією, однак сучасні дослідження все ще відстають від законодавства. Наприклад, запропоновані водяні знаки — це все ще експериментальна технологія, яку можна з легкістю підробити.

Є кілька у перспективі ефективних способів — як-от специфікація C2PA на основі криптографічних методів, яка дозволить сайтам ідентифікувати зображення, створені ШІ, та позначати тим чи іншим чином.

3. На ШІ тепер можна поскаржитись

У ЄС створять Європейський офіс зі штучного інтелекту, куди громадяни зможуть подавати скарги на системи штучного інтелекту у випадку заподіяння шкоди й вимагати пояснення від компаній.

4. ШІ-компанії стануть більш прозорими

Компанії, які розробляють «загальні моделі штучного інтелекту», такі як мовні моделі, повинні будуть створити та зберігати технічну документацію, що показуватиме, як вони побудували модель, чи дотримуються вони закону про авторське право, а також публікувати на загал підсумок того, які навчальні дані були використані для моделі.

Компанії з найпотужнішими моделями штучного інтелекту, такими як GPT-4 і Gemini, отримають дещо обтяжливіші вимоги — такі, як оцінка моделей та її ризиків, забезпечення кіберзахисту та звітування про будь-які інциденти, коли система штучного інтелекту була порушена. Компанії, які не виконають вимог, зіткнуться з великими штрафами, або повною забороною в ЄС.

Штрафи коливатимуться від 7,5 мільйонів євро або 1,5% від загального світового обороту компанії (залежно від того, що більше) за надання невірної інформації регуляторам; до 15 мільйонів євро або 3% від світового обороту за порушення певних положень закону, таких як зобов’язання щодо прозорості; до 35 мільйонів євро, або 7% обороту, за розгортання або розробку заборонених інструментів ШІ.

Джерело: MIT Technology Review

Disqus Comments Loading...