Google, Microsoft, OpenAI та інші компанії готують угоду про запобігання впливу ШІ на вибори

Опубликовал
Андрей Русанов

Провідні компанії зі штучного інтелекту планують підписати угоду, яка зобов’язуватиме розробити технологію для ідентифікації, маркування та контролю зображень, відео та аудіозаписів, створених ШІ, які мають на меті ввести в оману виборців напередодні вирішальних виборів у багатьох країнах цього року.

Згідно з копією, отриманою The Washington Post, угода, яку розроблено Google, Microsoft, Meta, OpenAI, Adobe та TikTok, все ж не забороняє оманливий політичний ШІ-контент. X (Twitter) не стане підписантом угоди, однак вона буде відкрита для підписання усіма охочими компаніями.

Натомість документ є маніфестом, у якому декларується, що створений ШІ контент, значна частина якого створюється за допомогою інструментів компаній-учасників та розміщується на їхніх платформах, дійсно становить ризик для чесних виборів. У ній описано кроки, яки спрямовані пом’якшити цей ризик: наприклад маркування ймовірного вмісту ШІ та інформування громадськості про небезпеку ШІ.

«Навмисне та нерозкрите створення та розповсюдження оманливого ШІ-контенту щодо виборів може вводити громадськість [в оману] у спосіб, який ставить під загрозу цілісність виборчих процесів», — йдеться в угоді.

Онлайн-курс "Продуктова аналітика" від Laba.
Станьте універсальним аналітиком, опанувавши 20+ інструментів для роботи з будь-яким продуктом.
Дізнатись більше про курс

Зображення, створені штучним інтелектом, або «дипфейки», існують уже кілька років. Але за останній рік їхня якість значно та швидко покращилася – деякі підроблені відео, зображення та аудіозаписи важко відрізнити від справжніх. Інструменти для їх виготовлення тепер також широко доступні, що значно полегшує їх виготовлення.

Контент, створений штучним інтелектом, уже з’явився під час виборчих кампаній по всьому світі. Рекламна кампанія на підтримку колишнього кандидата в президенти США від Республіканської партії Рона Десантіса використовувала штучний інтелект для імітації голосу колишнього президента Дональда Трампа. У Пакистані кандидат у президенти Імран Хан використовував штучний інтелект для виступів із в’язниці. У січні автоматичний дзвінок, нібито від президента Байдена, закликав людей не голосувати на праймеріз у Нью-Гемпширі.

Технічні компанії зазнали тиску з боку регуляторів, дослідників штучного інтелекту та політичних активістів, з вимогою стримати поширення фейкового виборчого контенту. Нова угода схожа на добровільне зобов’язання компаній, підписане в липні після зустрічі в Білому домі, де вони зобов’язалися намагатися ідентифікувати та позначати підроблений вміст ШІ на своїх сайтах. У новій угоді компанії також зобов’язуються навчати користувачів щодо оманливого вмісту, створеного за допомогою штучного інтелекту та бути прозорими у власних зусиллях з виявлення діпфейків.

Технологічні компанії також уже мають власні норми щодо політичного контенту, створеного ШІ. TikTok не дозволяє фальшивий ШІ-контент за «участі» публічних діячів, якщо він використовується для політичної чи комерційної підтримки. Meta, материнська компанія Facebook і Instagram, вимагає від політичних рекламодавців повідомляти, чи використовують вони ШІ в рекламі на своїх платформах. YouTube вимагає від творців позначати створений штучним інтелектом контент, який здається реалістичним.

Проте спроби побудувати широку систему, в якій вміст штучного інтелекту ідентифікується та позначається в соціальних мережах, поки не увінчалися успіхом. Google продемонстрував технологію «водяних знаків», але не вимагає від своїх клієнтів її використання. Компанія Adobe, власник Photoshop, позиціює себе як лідера у стримуванні ШІ-контенту, але нещодавно її база стокових фотографій містила фейкові зображення війни в Газі.

Disqus Comments Loading...