Інструмент OpenAI виявляє згенеровані нейромережами зображення з точністю 99%

Опубликовал
Катерина Даньшина

Нині програма проходить внутрішні тести перед публічним випуском.

Головна технічна директорка OpenAI (розробника чатбота ChatGPT і генератора зображень DALL-E) Міра Мураті заявила, що новий інструмент компанії може виявляти згенеровані штучним інтелектом зображення з точністю 99%.

Нині інструмент проходить внутрішні випробування перед запланованим публічним випуском — однак дату не називають.

Це не перша спроба OpenAI створити програму, яка б допомогла відрізнити творчість людей від роботи штучного інтелекту — у січні компанія запустила інструмент для перевірки тексту, однак вже у липні його роботу призупинили через «‎низьку достовірність».

Онлайн-курс "2D Animation" від Skvot.
Покроково та з фідбеком від лекторки увійдіть у 2D-анімацію через вивчення софтів, інструментів та створення кейсу у портфоліо.
Програма курсу та реєстрація

Потреба в інструментах для перевірки медіафайлів чи текстів лише зростає із появою більшої кількості програм з генеративним ШІ, оскільки їх все частіше використовують для створення фейків чи незаконного контенту. Firefly від Adobe, до речі, вирішує один з аспектів претензій, блокуючи створення медіа, яке порушувало б авторські права.

Водночас керівники OpenAI натякнули на велику мовну модель нового покоління, яка замінить GPT-4 — назву офіційно не розкривали, однак стартап у липні подав заявку на товарний знак «GPT-5» до Бюро патентів і торгових марок США.

На питання, чи зможе модель GPT-5 применшити «‎галюцинації» чатботів, які здатні іноді видавати неправдиві тексти, Мураті відповіла:

«Подивимось. Ми досягли значного прогресу в питанні галюцинацій з GPT-4, але не головної цілі».

Гендиректор OpenAI Сем Альтман тим часом розглядає можливість того, що компанія зможе розробляти та виготовляти власні комп’ютерні чипи для навчання та роботи зі своїми моделями штучного інтелекту, на заміну Nvidia, яка зараз вважається лідером ринку.

Джерело: Bloomberg

Disqus Comments Loading...