Педофилы используют нейросети для создания детской порнографии — на форумах в даркнете обнаружены тысячи таких изображений

Опубликовал
Катерина Даньшина

Правоохранители опасаются, что использование генеративных инструментов для создания контента с сексуальной эксплуатацией детей усложнит поиск реальных жертв и борьбу с насилием во всем мире, пишет The Washington Post.

ИИ-программы, известные как диффузионные модели, могут в считанные секунды создать любое изображение по простому запросу, чем активно теперь пользуются педофилы. На «специализированных» форумах в даркнете следователи обнаружили тысячи порноизображений детей, и некоторые из них могли быть реальными жертвами.

«Детские фото (включая реальных жертв) используют для создания действительно ужасного контента. Идентифицировать ребенка, который попал в опасность, почти невозможно», – говорит Ребекка Портнофф, директор отдела данных в некоммерческой организации по безопасности детей Thorn.

В то же время есть изображения, которые используют на фото детей, не существующих в реальности – и это вызвало большую дискуссию о том, нарушают ли их авторы тогда вообще федеральные законы о защите детей? В Минюсте США отвечают утвердительно, хотя ни один реальный пример обвинения не привели.

Такие инструменты как DALL-E, Midjourney и Stable Diffusion используют миллиарды изображений, взятых из интернета для генерации собственных работ – и некоторые действительно включают фото реальных детей, взятых с фотосайтов или личных блогов.

Курс Python розробки від Mate academy.
Python — найпопулярніша мова 2024 року. Наш курс допоможе вам стати професіоналом, готовим до викликів сучасного IT ринку. Ви навчитеся створювати вебсайти, аналізувати дані, розробляти алгоритми, та навіть створювати штучний інтелект. .
Отримати деталі про курс

Появление генеративных инструментов увеличило скорость и масштабы, с которыми педофилы могут создавать новые откровенные изображения, поскольку они требуют меньше технических знаний, чем предыдущие методы (такие, как наложение лиц детей на тела взрослых с помощью методики «deepfake»), и могут генерировать сразу несколько изображений по одному запросу. Какие инструменты использовали педофилы для создания изображений, размещенных на форумах, неизвестно. Но, вероятно, речь идет об инструментах с открытым кодом, типа Stable Diffusion, которые можно запускать неограниченно и без контроля.

Stability AI говорит, что запрещает создание изображений сексуального насилия над детьми, помогает правоохранительным органам в расследовании «незаконного или злонамеренного» использования и удалила все откровенные материалы из своих учебных данных, уменьшая «возможность создания неприличного контента». В то же время любой может загрузить программу на свой компьютер, избегая правил компании и контроля.

Лицензия инструмента с открытым исходным кодом просит не использовать его «в целях эксплуатации или каким-либо образом наносить ущерб несовершеннолетним», но основные функции безопасности, в частности фильтр откровенных изображений, легко можно обойти с помощью строк кода, которые пользователь может добавить в программу. В то же время, компания защищает свой подход с открытым кодом как важный для творческой свободы пользователей. Исполнительный директор Stability AI, Эмад Мостак, в прошлом году говорил, что «в конце концов, это ответственность людей за то, соблюдают ли они этику, мораль и закон в том, как они используют эту технологию».

Основные конкуренты Stable Diffusion, DALL-E и Midjourney запрещают контент сексуального характера и не предоставляют открытый исходный код; их использование ограничивается корпоративными каналами, а все изображения фиксируются и отслеживаются. OpenAI, например, использует наблюдателей для соблюдения своих правил, и также удалила откровенный контент из учебных данных своего генератора изображений DALL-E

На форумах в даркнете пользователи открыто обсуждают стратегии создания откровенных фотографий и способы обойти фильтры против порнографии – включая использование не английских языков, которые, по их мнению, менее уязвимы для обнаружения. На одном из таких порталов из более чем 3000 участников примерно 80% респондентов недавнего внутреннего опроса сказали, что они использовали или хотели использовать инструменты искусственного интеллекта для создания изображений сексуального насилия над детьми.

Национальный центр пропавших без вести и эксплуатируемых детей, руководящий базой данных, которую компании используют для обозначения и блокировки материалов с детской порнографией, отчитывается о резком росте за последние несколько месяцев количества сообщений об изображениях, созданных ИИ, а также о людях, загружавших изображение сексуального насилия над детьми в ИИ-инструменты в надежде получить чего-то большего.

ФБР также сообщило в этом месяце, что наблюдало увеличение количества сообщений о детях, чьи фотографии были изменены на «изображения сексуальной тематики, которые выглядят правдивыми». Чиновники говорят, что сотни федеральных, государственных и местных правоохранительных органов, участвующих в борьбе с эксплуатацией детей, предположительно обсудят эту проблему на национальном тренинге в этом месяце.

Некоторые группы исследователей уже работают над техническими способами противостоять этой тенденции – в частности, созданием систем идентификации, которые могли бы вставлять код в изображение, который бы ссылался на их создателей.

Disqus Comments Loading...