Миллион против 15 000 — количество дипфейков выросло в геометрической прогрессии с 2019 года (и качество тоже)

Опубликовал
Катерина Даньшина

Технология Deepfake уже некоторое время способна создавать реалистичные изображения людей и их голоса, однако с развитием генеративного искусственного интеллекта, отличить фейк от реальности становится все сложнее.

А что если технология позволит мошенникам захватывать экраны наших устройств и опустошать банковские счета? Это вполне реально, поэтому параллельно начал развиваться рынок инструментов для обнаружения глубоких фейков.

Эти инструменты также полагаются на искусственный интеллект, выявляя признаки того, что контент поддельный — на основе понимания процесса создания этих дипфейков. Например, если фейковая фотография, то на ней можно обнаружить несоответствия в освещении, тенях или углах; элементы искажения и размытия изображения.

Как сообщает ExpressVPN, в 2019 году в Интернете было обнаружено менее 15 000 дипфейков, а сегодня эта цифра исчисляется миллионами. По данным Всемирного экономического форума, количество дипфейков продолжает расти ежегодно на 900%.

Курс Full-stack розробки від Mate academy.
Станьте Full-stack розробником з нуля. Mate academy дає комплексні знання і навички для розробки повноцінних веб-рішень — від візуальної частини до серверної логіки. Ви освоїте технології, щоб створити власний проєкт від а до я — без допомоги інших.
Ознайомитися з курсом

Согласно опросу Regula, около 80% компаний заявили, что дипфейки представляют реальную угрозу их операциям, и почти половина — недавно сталкивались с такого рода мошенничеством.

«Предприятия должны рассматривать дипфейки как следующее поколение проблем кибербезопасности. Мы практически решили вопрос о конфиденциальности и доступности, теперь речь идет об аутентичности», — говорит Мэтью Мойнахан, исполнительный директор поставщика системы аутентификации OneSpan.

В июньском отчете компании по кибербезопасности и управлению идентификацией и доступом Transmit Security говорится, что созданные ИИ-дипфейки уже можно использовать для обхода биометрических систем безопасности, таких как системы распознавания лиц, и для создания фальшивых удостоверений личности. Чат-бот можно запрограммировать на имитацию доверенного лица или представителя службы поддержки клиентов, обманом заставляя людей передавать ценную личную информацию для использования в других атаках.

В прошлом году ФБР сообщило о росте количества жалоб на использование дипфейков в случаях похищения личной информации при подаче заявок на работу по удаленным вакансиям.

Один из способов борьбы с кражей удостоверений — использование так называемой «поведенческой биометрии‎», которая анализирует взаимодействия потребителя с устройством и сравнивает их с заранее определенным профилем пользователя или поведенческим отпечатком.

Но существует риск контратак, и глубокие фейки, созданные ИИ, могут быть достаточно успешными в этом. Создавая поддельные данные или манипулируя шаблонами, на которых учились модели искусственного интеллекта (метод, известный как соревновательные атаки), мошенники могут обманом заставить алгоритмы классифицировать мошенническую деятельность как законную.

Остальные методы борьбы с кражей личных данных включают многофакторную аутентификацию и инструменты оценки устройства. Некоторые компании требуют от пользователей снять короткое видео с собой для подтверждения личности. Технология используется, чтобы «удостовериться, что на видео есть человеческие движения – например моргание или подергивание рта»; далее компания проверяет, получено ли видео в реальном времени.

В то же время большинство государственных департаментов труда США все еще полагаются только на распознавание лиц.

«В настоящее время почти все правительство США разоблачено», — говорит Гейвуд Талков, исполнительный директор правительственной группы LexisNexis Risk Solutions.

Источник: FT

Disqus Comments Loading...