Новости Технологии 24.10.2023 в 17:47 comment views icon

Яд для искусственного интеллекта: инструмент Nightshade добавляет в работы художников невидимые пиксели, которые повреждают генеративные модели

author avatar

Катерина Даньшина

Автор новостей

Раздел Технологии выходит при поддержке

Пиксели «отравляют‎» генеративную модель в случае незаконного использования изображений и нарушают ее работу.

На фоне многочисленных судебных исков художников OpenAI, Meta, Google и Stability AI, команда Чикагского университета разработала собственный инструмент для борьбы за авторское право.

Nightshade позволяет художникам добавить на свои работы невидимые пиксели перед публикацией в интернете, и если «отравленное» изображение попадет в учебные данные такой модели, как DALL-E, Midjourney или Stable Diffusion, то вся их работа может нарушиться — собаки в результатах могут превратиться в кошек, а машины в коров и т.д.

Отрута для штучного інтелекту: інструмент Nightshade додає у твори художників невидимі пікселі, які пошкоджують генеративні моделі
Результаты, которые выводятся в зависимости от количества добавленных отравленных изображений.

Отравленные данные очень трудно удалить, поскольку это требует тщательного поиска и удаления каждого поврежденного образца.

Команда также разработала инструмент Glaze, позволяющий художникам «маскировать» свой личный стиль, чтобы предотвратить его использование компаниями искусственного интеллекта. Он работает подобно Nightshade: изменяя пиксели изображений тонкими способами, невидимыми для человеческого глаза, и манипулирует моделями машинного обучения, чтобы интерпретировать изображение как нечто отличное от того, что оно действительно показывает.

Отрута для штучного інтелекту: інструмент Nightshade додає у твори художників невидимі пікселі, які пошкоджують генеративні моделі

Nightshade в дальнейшем выпустят с открытым кодом, поэтому разработчики смогут усовершенствовать инструмент и создать собственные версии — от этого он станет мощнее, считают исследователи.

Инструмент протестировали на последних моделях Stable Diffusion и модели ИИ, которую обучили с нуля. Когда модель Stability AI получила 50 «отравленных» изображений собак, ее результаты стали выглядеть странно — имели слишком много конечностей или мультяшные лица.

Руководитель команды, профессор Бен Чжао, признает риски того, что технологию могут использовать злоумышленники, однако говорит, что им понадобятся «‎тысячи отравленных образцов, чтобы нанести реальный ущерб» большим и мощным моделям, обучающимся на миллиардах образцов данных.

Джунфен Янг, профессор информатики в Колумбийском университете, изучавший безопасность систем глубокого обучения и не участвовавший в работе, говорит, что Nightshade может заставить ИИ-компании проявлять больше уважения к художникам и побуждать к выплате роялти.

Источник: Engadget, MIT Technology Review

Раздел Технологии выходит при поддержке

Favbet Tech – это IT-компания со 100% украинской ДНК, которая создает совершенные сервисы для iGaming и Betting с использованием передовых технологий и предоставляет доступ к ним. Favbet Tech разрабатывает инновационное программное обеспечение через сложную многокомпонентную платформу, способную выдерживать огромные нагрузки и создавать уникальный опыт для игроков.


Що думаєте про цю статтю?
Голосів:
Файно є
Файно є
Йой, най буде!
Йой, най буде!
Трясця!
Трясця!
Ну такої...
Ну такої...
Бісить, аж тіпає!
Бісить, аж тіпає!
Loading comments...

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: