Новый AI-генератор изображений Stable Diffusion, способный создавать реалистичные картинки по текстовому описанию, стал очень популярен за последние дни. Публичный релиз нейросети состоялся не так давно – 22 августа. За это время разработка от Stability AI успела как обрасти поклонниками, так и нажить врагов и критиков.
Начнем с позитива: пользователи хвалят Stable Diffusion за доступность – ее можно запускать даже на собственном компьютере. Для этого необходимо загрузить соответствующий софт и иметь около 6.9 гигабайт видеопамяти. Запускать нейросеть рекомендуется на видеокартах Nvidia. В будущем появятся специальные версии Stable Diffusion, оптимизированные под видеокарты AMD и чипы M1/M2 от Apple.
Если видеокарты с такими характеристиками нет, а попробовать Stable Diffusion все равно хочется, то можно использовать браузерную версию генератора. Вот только качество изображений в таком случае будет хуже, чем в релизной версии. Все это бесплатно: открытая лицензия позволяет использовать модель в коммерческих и некоммерческих целях.
Но у этой технологии есть и обратная сторона. В сети можно найти площадки, посвященные созданным Stable Diffusion изображениям обнаженных знаменитостей и порнографическим материалам.
Эмад Мостаке, генеральный директор Stability AI, уже заявил, что компания сотрудничает с «ведущими специалистами по этике и технологиям» над механизмами ответственного использования. Одним из этих механизмов является настраиваемый инструмент AI, Safety Classifier, включенный в общий пакет программного обеспечения Stable Diffusion. Его задача – выявлять и блокировать оскорбительные или нежелательные изображения. Однако подобный классификатор безопасности можно отключить.
Остальные системы искусственного интеллекта, например DALL-E 2 от OpenAI, уже давно настроили свои фильтры для отсеивания порнографических материалов. Кроме того, некоторые другие модели не позволяют изображать известных людей на картинках. Stable Diffusion, в свою очередь, технически не ограничена, что может привести к появлению большого количества неприемлемого контента, в том числе дипфейков.
Конечно, технология генерации дипфейков существует уже достаточно продолжительное время. Но Stable Diffusion представляет совершенно новое поколение систем, которые могут создавать невероятно убедительные дипфейки с минимальной пользовательской работой. Программа легко установлена, для этого не требуется особых знаний или навыков. Кроме того, разработчики ведут постоянную работу над оптимизацией своего софта, что в теории лишь увеличит его доступность.
Эксперты опасаются, что благодаря такому высокоэффективному и легко доступному генератору, как Stable Diffusion, личные фотографии пользователей социальных медиа могут быть использованы для целевых порнографических изображений или изображений, на которых видны незаконные действия.
В связи с этим, если Stability AI не желает или не может изменить свою технологию, роль фильтра должны выполнять фотохостинги и социальные сети. Такие площадки постоянно совершенствуют свои возможности в борьбе против дипфейков и блокируют изображения, перепрофилирующие образы знаменитостей и пользователей. И, может быть, именно они помогут решить эту проблему.
Напомним, недавно свою нейросеть презентовал и Google – Transframer способна генерировать короткие видео по единственному изображению.
Источник: TechCrunch