Новости
Новый инструмент распознает дипфейки с точностью до 96%

Новый инструмент распознает дипфейки с точностью до 96%

Новый инструмент распознает дипфейки с точностью до 96%


Проблема использования искусственного интеллекта в целях дезинформации последнее время стал достаточно остро. Один из самых ярких негативных примеров использования достижений в области искусственного интеллекта — видео-«дипфейки», в которых с помощью нейросетей заменяют лицо человека в кадре лицом кого-то другого. Уже сейчас существует немало ПО, позволяющих создавать невероятно убедительные фальсификации (вот один из примеров). Собственно, буквально на прошлой неделе мы рассказывали про очередной новый алгоритм Deepfake, делающий из фотографий поющие портреты. Но параллельно с «плохим» софтом идет разработка защитных инструментов, которые в будущем помогут легко отличить поддельное видео от подлинного. Очередное пополнее в арсенале таких средств защиты — инструмент для борьбы с дипфейками, созданный исследователями Института информационных наук университета Южной Калифорнии (USC ISI). Статья опубликована в Computer Vision Foundation., кратко о ней рассказывает MIT Technology Review.

Итак, созданный специалистами USC ISI инструмент фокусируется на незначительных движениях мышц лица и головы, а также на артефактах в файлах, чтобы определить, является ли видео настоящим, либо же подделкой. Сообщается, что этот инструмент способен выявлять сгенерированные компьютером видео с точностью до 96%.

Доступные на сегодняшний день методики выявления дипфейков анализируют видео кадр за кадром, чтобы обнаружить любые признаки редактирования. В то же время технология, созданная исследователями USC ISI, требует гораздо меньше вычислительной мощности и времени. Алгоритм прогоняет все видео сразу, что позволяет обрабатывать информацию намного быстрее. В процессе он накладывает кадры видео друг на друга и ищет потенциальные несоответствия в движениях объекта. Это может быть едва заметный просчет в том, как двигаются веки человека или странное движение во время жеста — то, что исследователи называют «незаметными биометрическими сигнатурами». Поскольку большинство алгоритмов создания дипфейков не способны полностью моделировать движения человека, именно на таком их легко можно подловить.

Сам инструмент основан на нейросетях. Исследователи тренировали его с помощью библиотеки из примерно 1000 видео, подвергавшихся редактированию разной степени. Как сообщалось выше, после тренировок алгоритм смог выявлять фейковые видео с политиками и знаменитостями с точностью до 96%. Таким образом, в будущем разработка ученых USC ISI может стать весьма полезным инструментом в борьбе с такими вот поддельными видеороликами.

Источник: MIT Technology Review и Computer Vision Foundation


Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: