Новини Софт 24.05.2023 о 13:52 comment views icon

Microsoft представила «водяні знаки» для згенерованого контенту та інструмент автоматичної модерації на основі ШІ

author avatar
https://itc.ua/wp-content/uploads/2023/11/photo_2023-11-12_18-48-05-3-96x96.jpg *** https://itc.ua/wp-content/uploads/2023/11/photo_2023-11-12_18-48-05-3-96x96.jpg *** https://itc.ua/wp-content/uploads/2023/11/photo_2023-11-12_18-48-05-3-96x96.jpg

Андрій Русанов

Автор сайту

Microsoft представила «водяні знаки» для згенерованого контенту та інструмент автоматичної модерації на основі ШІ

З появою генеративних ШІ, здатних створювати високоякісні зображення, гостро позначилася проблема швидкого розпізнавання фейків. Нещодавню підробку вибуху в Пентагоні досить легко розпізнати за деталями, проте багато хто навіть не намагається це робити – фейк поширився дуже швидко.

Microsoft впроваджує специфікацію Coalition for Content Provenance and Authenticity (C2PA) на основі криптографічних методів, яка дозволить сайтам ідентифікувати зображення, створені ШІ, та позначати тим чи іншим чином. Стандарт розроблено спільно з Adobe, ARM та Intel. Microsoft впроваджує його насамперед у своїх продуктах, таких як Bing Image Creator на основі DALL-E 2.

Microsoft C2PA

Щоб розпізнавати зображення, розроблені програмами інших компаній, потрібна підтримка з їхнього боку. Adobe підтримує C2PA у своїх інструментах генеративного ШІ, але інший важливий гравець, Stability AI, заявив про готовність прийняти власну схожу специфікацію Google має намір використовувати вбудовані метадані для позначення візуальних медіа, створених ШІ. Shutterstock і Midjourney також розробили власні рекомендації щодо позначення ШІ-контенту. Зусилля цих та інших компаній ще належить об’єднати.

Крім розпізнавання створених ШІ зображень, Microsoft розробляє засоби автоматичної модерації неприйнятного текстового та візуального контенту за допомогою штучного інтелекту. Інструмент Azure AI Content Safety працює з картинками та текстом багатьма мовами, сигналізуючи модераторам про неприйнятний вміст та привласнює йому індекс серйозності.

«Нові моделі ШІ здатні набагато краще розуміти контент та культурний контекст. Вони від початку багатомовні та дають чіткі пояснення, дозволяючи користувачам зрозуміти, чому контент було позначено чи видалено».

В основі Azure AI Content Safety лежить система безпеки, з якою вже працюють чатбот Microsoft у Bing та Copilot. Система захищає від упередженого, сексистського, расистського, ненависницького, жорстокого контенту та інтегрована в Azure OpenAI Service.

Онлайн-курс "Тестування API" від robot_dreams.
Навчіться працювати з API на просунутому рівні та проводити навантажувальні тестування, щоб виявляти потенційні проблеми на ранніх етапах розробки.
Програма курсу і реєстрація

Глава Microsoft Сатья Наделла про ШІ: «Джобс казав, що комп’ютери — велосипеди для розуму. Тепер у нас є парова машина для розуму»

Джерело: TechCrunch та TechCrunch


Loading comments...

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: