Отрута для штучного інтелекту: інструмент Nightshade додає у твори художників невидимі пікселі, які пошкоджують генеративні моделі

Опубликовал
Катерина Даньшина

Пікселі «отруюють‎» генеративну модель у випадку незаконного використання зображень і порушують її роботу.

На тлі численних судових позовів художників до OpenAI, Meta, Google і Stability AI, команда Чиказького університету розробила власний інструмент для боротьби за авторське право.

Nightshade дозволяє митцям додати на свої роботи невидимі пікселі перед публікацією в інтернеті, і якщо «отруєне‎» зображення потрапить до навчальних даних такої моделі, як DALL-E, Midjourney чи Stable Diffusion, то уся їхня робота може порушитись — собаки у результатах можуть перетворитися на котів, а машини на корів тощо.

Результати, які виводяться в залежності від кількості доданих отруєних зображень.

Отруєні дані дуже важко видалити, оскільки це вимагає ретельного пошуку та видалення кожного пошкодженого зразка.

Команда також розробила інструмент Glaze, який дозволяє художникам «маскувати» свій особистий стиль, щоб запобігти його використанню компаніями штучного інтелекту. Він працює подібно до Nightshade: змінюючи пікселі зображень тонкими способами, невидимими для людського ока, та маніпулює моделями машинного навчання, щоб інтерпретувати зображення як щось відмінне від того, що воно насправді показує.

Курс UX/UI дизайнер сайтів і застосунків з Alice K.
Курс від практикуючої UI/UX дизайнерки, після якого ви знатимете все про UI/UX дизайн .
Реєстрація на курс

Nightshade надалі випустять із відкритим кодом, тож розробники зможуть удосконалити інструмент і випустити власні версії — від цього він стане лише потужнішим, вважають дослідники.

Інструмент протестували на останніх моделях Stable Diffusion і на моделі ШІ, яку навчили з нуля. Коли модель Stability AI отримала 50 «‎отруєних» зображень собак, її результати почали виглядати дивно — мали забагато кінцівок чи мультяшні обличчя.

Керівник команди, професор Бен Чжао, визнає ризики того, що технологію можуть використати зловмисники, однак каже, що їм знадобляться «‎тисячі отруєних зразків, щоб завдати реальної шкоди» більшим і потужнішим моделям, які навчаються на мільярдах зразків даних.

Джунфен Янг, професор інформатики в Колумбійському університеті, який вивчав безпеку систем глибокого навчання і не брав участі в роботі, каже, що Nightshade може змусити ШІ-компанії виявляти більше поваги до митців і спонукати до виплати роялті.

Джерело: Engadget, MIT Technology Review

Disqus Comments Loading...