OpenAI створила дипфейк-детектор, який розпізнає згенеровані DALL-E 3 зображення з точністю 98%

Опубликовал
Катерина Даньшина

Компанія-розробниця ChatGPT та DALL-E створила інструмент для розпізнавання зображень, які згенерував штучний інтелект.

Наразі класифікатор працює лише з результатами, створеними власним генератором зображень OpenAI DALL-E 3 — але з високою точністю.

Під час внутрішніх тестувань інструмент правильно ідентифікував «штучні» зображення у 98% випадків. Повідомляється, що класифікатор також може визначати типові модифікації з мінімальним впливом, такі як стиснення, кадрування та зміни насиченості.

Онлайн-курс "Business English for Marketers" від Laba.
Опануйте професійну англійську для маркетингу.Розширте карʼєрні можливості для роботи з іноземними колегами: від розробки нових продуктів до презентації стратегії бренду.
Детальніше про курс

Відсьогодні OpenAI приймає заявки на доступ до класифікатора для першої групи тестувальників, включно з дослідницькими лабораторіями та науково-орієнтованими журналістськими некомерційними організаціями, у межах Програми доступу для дослідників.

Також OpenAI планує додавати водяні знаки для позначення цифрового контенту (фото чи аудіо), які «неможливо видалити», та приєднається до профільної галузевої групи C2PA, до якої вже входять Google, Microsoft і Adobe.

На тлі виборів в США та у світі загалом зловживання інструментами штучного інтелекту зростає — лише у квітні, наприклад, фейкові відео двох боллівудських акторів, які критикують прем’єр-міністра Нарендру Моді, стали вірусними в мережі.

Disqus Comments Loading...