ЄС прийняв Закон про штучний інтелект — але є нюанси

Опубликовал
Катерина Даньшина

ЄС попередньо погодив правила штучного інтелекту, які мають обмежити використання нової технології та примусять розробників бути прозорішими. Водночас ці зміни залишаються до кінця незрозумілими — і, можливо, дуже далекими.

Вперше запропонований у 2021 році Закон про штучний інтелект досі не схвалений повністю, а гарячі обговорення в останні хвилини пом’якшили деякі з найсуворіших регуляторних загроз.

«У дуже короткостроковій перспективі закон не матиме особливого прямого впливу на відомих розробників штучного інтелекту, що працюють у США, оскільки, згідно з його умовами, він, ймовірно, не набуде чинності раніше 2025 року», — каже Пол Барретт, заступник директора Центру бізнесу та прав людини NYU Stern.

Наразі, за словами Барретта, основні гравці штучного інтелекту, такі як OpenAI, Microsoft, Google і Meta, ймовірно, продовжуватимуть боротьбу за домінування, особливо в міру того, як вони справляються з регуляторною невизначеністю в США.

Онлайн-курс "Project Manager" від Laba.
Станьте проджектом, що вміє передбачати ризики наперед і доводити проєкт до результату, який хочуть замовники. Поділиться досвідом Павло Харіков, former Head of PMO в Kyivstar.
Програма курсу і реєстрація

Закон про штучний інтелект почали розробляти ще до вибуху інструментів штучного інтелекту загального призначення (GPAI), таких як велика мовна модель OpenAI GPT-4, і регулювання стало каменем спотикання в останніх дискусіях. Закон розділяє свої правила за рівнем ризику, який несе система ШІ для суспільства, або, як сказано в заяві ЄС, «чим вищий ризик, тим суворіші правила». Але деякі країни-члени занепокоєні тим, що така суворість може зробити ЄС непривабливим ринком для ШІ.

Франція, Німеччина та Італія під час переговорів лобіювали послаблення обмежень щодо GPAI, і отримали деякі компроміси щодо найсуворіших правил. Наприклад, замість того, щоб класифікувати весь ШІ загального призначення як високоризиковий — запропоновано дворівневу систему із винятки для правоохоронних органів щодо прямо забороненого використання штучного інтелекту на кшталт біометричної ідентифікації.

Президент Франції Еммануель Макрон розкритикував правила, заявивши, що Закон про ШІ створює жорстке регуляторне середовище, яке перешкоджає інноваціям.

Барретт сказав, що деяким новим європейським компаніям штучного інтелекту може бути складно залучити капітал, зважаючи на умови закону, що надає перевагу американським розробникам. Компанії за межами ЄС можуть навіть відмовитися від відкриття філії в регіоні або заблокувати доступ до платформ, щоб їх не оштрафували за порушення правил — потенційний ризик, з яким Європа також зіткнулася в технологічній індустрії, не пов’язаній з ШІ, дотримуючись таких правил як Закон про цифрові ринки та Закон про цифрові послуги.

Наприклад, моделі штучного інтелекту, навчені на загальнодоступних — але конфіденційних і потенційно захищених авторським правом даних — стали великою суперечкою для організацій. Однак тимчасові правила не створюють нових законів щодо збору даних. Попри те, що ЄС запровадив закони про захист даних через Загальний регламент про захист даних (GDPR), його правила для ШІ не забороняють компаніям збирати інформацію, окрім вимог щодо дотримання вказівок регламенту.

«Згідно з правилами, компаніям, можливо, доведеться надавати прозорі відомості або так звані дані про етикетки», — каже Сюзан Аріель Ааронсон, директор Центру цифрової торгівлі та управління даними та професор-дослідник міжнародних відносин Університету Джорджа Вашингтона. «Але насправді це не змінить поведінку компаній щодо даних».

Ааронсон зазначає, що Закон про штучний інтелект досі не роз’яснює, як компанії повинні розглядати захищений авторським правом матеріал, який є частиною навчальних даних моделі, окрім того, що розробники повинні дотримуватися існуючих законів про авторське право (що залишає багато сірих зон навколо ШІ). Таким чином, це не стимулює розробників моделей уникати використання захищених авторським правом даних.

Закон про штучний інтелект також не застосовуватиме свої потенційно жорсткі штрафи до розробників з відкритим кодом, дослідників і невеликих компаній, які працюють далі в ланцюжку. Головний юридичний директор GitHub Шеллі Мак-Кінлі каже, що це «позитивне рішення для розвитку відкритих інновацій і розробників, які допомагають вирішити деякі з найнагальніших проблем суспільства».

Дехто вважає, що найбільш конкретним впливом закону може стати тиск на інших, зокрема американських, політиків, щоб вони діяли швидше. Це не перша значна нормативна база для штучного інтелекту — у липні Китай ухвалив інструкції для компаній, які хочуть продавати послуги штучного інтелекту громадськості. Але відносно прозорий і активно обговорюваний процес розробки в ЄС дав галузі штучного інтелекту зрозуміти, чого очікувати. Попри те, що Закон про штучний інтелект ще може змінитися, Ааронсон каже, що це принаймні свідчить про те, що ЄС прислухався до громадськості та відреагував на занепокоєння щодо цієї технології.

Лотар Детерманн, партнер із питань конфіденційності даних та інформаційних технологій юридичної фірми Baker McKenzie, каже, що той факт, що закон ґрунтується на існуючих правилах щодо даних, також може спонукати уряди оцінити, які нормативні акти вже працюють. А Блейк Бреннон, директор зі стратегії платформи конфіденційності даних OneTrust, сказав, що більш зрілі компанії зі штучного інтелекту встановлюють інструкції щодо захисту конфіденційності відповідно до законів, таких як GDPR, і в очікуванні суворішої політики. Він сказав, що в залежності від компанії Закон про штучний інтелект є «додатковим доповненням» до вже існуючих стратегій.

США, навпаки, значною мірою не змогли розпочати регулювання штучного інтелекту, попри те, що вони є домом для великих гравців, таких як Meta, Amazon, Adobe, Google, Nvidia та OpenAI. Їх найбільшим кроком наразі став виконавчий наказ адміністрації Байдена, який вимагає від державних установ розробити стандарти безпеки та спиратися на добровільні, необов’язкові угоди, підписані великими гравцями ШІ. Кілька законопроєктів, поданих до Сенату, здебільшого стосувалися глибоких фейків і водяних знаків.

Це не означає, що США застосовуватимуть той самий підхід, заснований на оцінці ризику, але вони можуть спробувати розширити правила прозорості даних або дозволити моделям GPAI відчувати себе трохи вільніше.

Навріна Сінгх, засновниця Credo AI й член національного консультативного комітету з питань штучного інтелекту, вважає, що хоча Закон про штучний інтелект є величезним рішення для сфери ШІ, все не зміниться швидко, і попереду ще багато роботи.

«Регулятори по обидва боки Атлантики повинні зосередитися на допомозі організаціям будь-якого розміру в безпечному проєктуванні, розробці та розгортанні штучного інтелекту, який є прозорим і підзвітним», — сказала Сінгх і додала, що все ще бракує стандартів і процесів порівняльного аналізу, особливо щодо прозорості.

Хоча Закон про штучний інтелект ще не завершено, переважна більшість країн ЄС визнали, що це напрямок, у якому вони хочуть рухатися. Закон не регулює заднім числом існуючі моделі чи програми, але майбутні версії OpenAI GPT, Meta Llama або Google Gemini повинні будуть враховувати вимоги щодо прозорості, встановлені ЄС. Можливо, це не призведе до драматичних змін миттєво, але демонструє позицію ЄС щодо ШІ.

Джерело: The Verge

Disqus Comments Loading...