Блоги Блоги 17.09.2018 в 15:01 comment

Американские политики: технология Deepfake, позволяющая редактировать видеоролики, несет угрозу национальной безопасности

author avatar
https://secure.gravatar.com/avatar/341ba260d57a6855744e3c0760decc30?s=96&r=g&d=https://itc.ua/wp-content/uploads/2023/06/no-avatar.png *** https://secure.gravatar.com/avatar/341ba260d57a6855744e3c0760decc30?s=96&r=g&d=https://itc.ua/wp-content/uploads/2023/06/no-avatar.png *** https://itc.ua/wp-content/themes/ITC_6.0/images/no-avatar.svg

Технология редактирования видеороликов Deepfake, позволяющая минимальными усилиями подменять одно лицо другим при помощи нейронных сетей, вызывает все больше беспокойства у американских политиков. Инициативная группа, состоящая из трех законодателей — двоих демократов и одного республиканца, направила письмо директору Национальной разведки США Дэну Коутсу с просьбой оценить угрозу, которую представляет новая форма фальсификации, а также разработать соответствующие контрмеры и дать рекомендации Конгрессу.

В письме говорится, что «очень реалистичные цифровые подделки», которые демонстрируют «убедительные изображения людей, делающих или говорящих то, что они никогда не делали», могут быть использованы для шантажа и дезинформации.

«Поскольку эта технология продолжает развиваться и становится все более доступной, она может представлять угрозу для публичного дискурса и национальной безопасности Соединенных Штатов», — отмечают авторы письма из Палаты представителей Адам Шифф, Стефани Мерфи и Карлос Курбело.

В заявлении для прессы Курбело уточнил, что «такого рода подделки потенциально могут нарушить целостность нашего общества и вызвать опасные международные и внутренние последствия». По мнению политика, в будущем технологией обязательно воспользуются «агенты влияния из-за рубежа» — в том числе, российские боты, — для того, чтобы повлиять на ход американских выборов.

«Как и в случае с любой угрозой, наша разведка должна быть готова бороться с ними», — заявил Курбело.

Первые «глубокие фейки» появились в 2016 году: пользователи Reddit начали использовать передовые разработки в области ИИ, чтобы вставлять лица знаменитостей в видео для взрослых. Термин «Deepfake» сочетает в себе два других — «глубокое обучение» и «подделки». Такие инструменты фактически превращают людей в виртуальных марионеток, синхронизируя их рты с чужой речью или просто заставляя их танцевать.

Напоследок отметим, что политики не впервые обращают внимание на эту технологию.

«Меня гораздо больше беспокоит не сама технология, а то, как ее применяют — можно ли использовать ее против детей, например, редактируя обращения их кумиров?», — отметил сенатор-демократ Марк Уорнер в интервью журналистам еще зимой этого года.

Источники: hightech.fm, The Intercept


Loading comments...

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: