Рубрики Новости

OpenAI заявила об использовании россией ИИ в масштабной кампании дезинформации

Опубликовал
Ігор Шелудченко

Российская кампания Doppelganger с помощью искусственного интеллекта от OpenAI создавала антиукраинские комментарии в социальной сети X.

Об этом говорится в материале The New York Times, который ссылается на отчет OpenAI.

OpenAI обнаружила кампании скрытого влияния, к которым присоединились государственные структуры и частные компании в россии, Китае, Иране и Израиле.

В частности, речь идет о пяти онлайн-кампаниях. Во время них ИИ генерировал манипулятивные комментарии с целью влияния на общественное мнение во всем мире.

Онлайн-курс "HR-менеджер" від Laba.
Оновитіть HR-стратегію, оптимізуйте HR-процеси та прокачайте бренд роботодавця.Досвід та особистий фідбек від експертів HR-сфери.Курс схвалено HRCI, містить 80% практики.
Детальніше про навчання

Doppelganger — операция влияния, направленная на прекращение поддержки Украины международными партнерами. По оценке Meta, это самая масштабная российская дезинформационная кампания с 2017 года.

Операции использовали технологию OpenAI для:

  • создание постов в социальных сетях,
  • перевода и редактирования статей,
  • написание заголовков
  • отладка компьютерных программ.

Исследователи соцсетей отметили, что это первый случай, когда крупная ИИ-компания сообщает об использовании своих технологий в злонамеренных целях.

В своем отчете OpenAI заявила, что ее инструменты использовались в кампаниях влияния, которые исследователи отслеживали годами, включая российскую кампанию под названием Doppelganger и китайскую кампанию под названием Spamouflage.

Кампания Doppelganger использовала технологию OpenAI для создания антиукраинских комментариев, которые были размещены на платформе X на английском, французском, немецком, итальянском и польском языках.

Инструменты OpenAI также использовались для перевода и редактирования статей, которые поддерживали россию в войне в Украине, а также для конвертации антиукраинских материалов в посты на Facebook.

В рамках этой работы также использовались инструменты OpenAI для отладки компьютерного кода, который, очевидно, был разработан для автоматической публикации информации в телеграмме.

Тем не менее, в OpenAI подчеркивают, что хотя ИИ и может помочь сделать кампании более эффективными, потока убедительной дезинформации так и не было создано.

«Это свидетельствует о том, что некоторые из наших самых больших опасений относительно операций влияния с помощью ИИ и дезинформации с помощью ИИ пока не оправдались», — заявил директор по разведке компании Graphika (отслеживает манипуляции в социальных сетях) Джек Стаббс.

Disqus Comments Loading...