Новини

Як DALL-E 2 та Midjourney, тільки 18+. З’явилася нейромережа, яка генерує зображення оголених жінок за текстовим описом

Як DALL-E 2 та Midjourney, тільки 18+. З’явилася нейромережа, яка генерує зображення оголених жінок за текстовим описом

Новий AI-генератор зображень Stable Diffusion, здатний створювати реалістичні картинки за текстовим описом, став надзвичайно популярним за останні дні. Публічний реліз нейромережі відбувся не так давно — 22 серпня. За цей час розробка від Stability AI встигла як обрости прихильниками, так і нажити ворогів та критиків.

Почнемо з позитиву: користувачі хвалять Stable Diffusion за доступність — її можна запускати навіть на власному комп’ютері. Для цього необхідно завантажити відповідний софт та мати близько 6.9 гігабайта відеопам’яті. Запускати нейромережу рекомендується на відеокартах Nvidia. У майбутньому з’являться спеціальні версії Stable Diffusion, оптимізовані під відеокарти AMD та чіпи M1/M2 від Apple.

Якщо відеокарти з такими характеристиками немає, а спробувати Stable Diffusion все одно хочеться, можна використати браузерну версію генератора. От тільки якість зображень в такому випадку буде гіршою, ніж у фінальній версії. Все це безоплатно: відкрита ліцензія дозволяє використовувати модель у комерційних та некомерційних цілях.

Але в цієї технології є і зворотний бік. В Мережі можна знайти майданчики, присвячені створеним Stable Diffusion зображенням оголених знаменитостей та порнографічним матеріалам. 

Курс
QA
Вивчайте важливi технології для тестувальника у зручний час, та отримуйте $1300 уже через рік роботи
РЕЄСТРУЙТЕСЯ!

Як DALL-E 2 та Midjourney, тільки 18+. З'явилася нейромережа, яка генерує зображення оголених жінок за текстовим описом

Як DALL-E 2 та Midjourney, тільки 18+. З'явилася нейромережа, яка генерує зображення оголених жінок за текстовим описом

Емад Мостаке, генеральний директор Stability AI, вже заявив, що компанія співпрацює з “провідними спеціалістами з етики та технологій” над механізмами відповідального використання. Одним із цих механізмів є настроюваний інструмент AI, Safety Classifier, включений у загальний пакет програмного забезпечення Stable Diffusion. Його задача — виявляти та блокувати образливі або небажані зображення. Однак подібний класифікатор безпеки можна вимкнути.

Інші системи штучного інтелекту, наприклад DALL-E 2 від OpenAI, вже давно налаштували свої фільтри для відсіювання порнографічних матеріалів. Крім того, деякі інші моделі не дозволяють зображати відомих людей на картинках. Stable Diffusion, своєю чергою, на технічному рівні ніяк не обмежена, що може призвести до появи величезної кількості неприйнятного контенту, в тому числі діпфейків. 

Звичайно, технологія генерації діпфейків існує вже досить тривалий час. Але Stable Diffusion представляє абсолютно нове покоління систем, які можуть створювати неймовірно переконливі діпфейки з мінімальною роботою користувача. Програму легко встановити, для цього не потрібно особливих знань чи навичок. Крім того, розробники ведуть постійну роботу над оптимізацією свого софту, що в теорії лише збільшить його доступність.

Експерти побоюються, що завдяки такому високоефективному та легко доступному генератору як Stable Diffusion особисті фотографії користувачів соціальних медіа можуть бути використані для цільових порнографічних зображень або зображень, на яких видно незаконні дії.

У зв’язку з цим, якщо Stability AI не бажає або не може змінити свою технологію, роль “фільтра” повинні виконувати фотохостинги та соціальні мережі. Такі майданчики постійно удосконалюють свої можливості в боротьбі проти діпфейків та блокують зображення, які перепрофільовують образи знаменитостей і користувачів. І, можливо, саме вони допоможуть розв’язувати цю проблему.

Нагадаємо, нещодавно свою нейромережу презентував і Google Transframer здатна генерувати короткі відео за єдиним зображенням.

Джерело: TechCrunch


Завантаження коментарів...

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: