Рубрики НовостиWTF

Созданное ИИ фейковое фото взрыва в Пентагоне снизило индекс S&P 500 на 0,3% ($500 млрд)

Опубликовал Андрій Русанов

Фальшивая фотография взрыва в штаб-квартире Министерства обороны США (Пентагон), созданная ИИ, обрушила стоимость 500 крупнейших американских компаний на $500 млрд – индекс S&P 500 потерял 30 пунктов за несколько минут. Индекс отскочил обратно, когда стало ясно, что фото поддельное.

На изображении, впервые появившемся в Facebook, виден большой столб дыма возле Министерства обороны США. Пост учетной записи Facebook, первой опубликовавшей фото и связанной с конспирологической группой QAnon, был заблокирован социальной сетью. В Facebook заявили, что изображение было «проверено независимыми фактами». Фото быстро распространилось в Twitter, не без помощи аккаунта российских пропагандистов RT.

Дежурный офицер Пентагона сообщил, что в понедельник утром информации об инцидентах не поступало. Полицейское управление Арлингтона написало в Twitter: «Никаких взрывов или инцидентов не происходит на территории Пентагона или рядом с ней, и нет непосредственной опасности или опасности для населения».

Еще до официальных опровержений внимательные пользователи соцсетей указали, что фото похоже на сгенерированное ИИ. Ник Уотерс, исследователь из группы Bellingcat, говорит, что шок от слухов о взрыве возле Пентагона побудил его изучить фотографию.

«Посмотрите на фасад здания и на то, как забор сливается с барьерами от толпы. Также нет никаких других изображений, видео или людей, публикующих свидетельства из первых рук».

Когда факт подделки стал известен, пользователи Twitter начали удалять твиты и публиковать опровержения. RT и ZeroHedge удалили твиты с изображением, а ZeroHedge заявил, что фотография признана фейковой. Платный аккаунт под названием Bloomberg Feed, на котором также была размещена фотография, был заблокирован.

  • Представитель Bloomberg News заявил, что пользователи Bloomberg Feed и Walter Bloomberg, которые публиковали фото, не связаны с Bloomberg News.

Прошествие – свидетельство того, каким образом ИИ может влиять на мировые события. Также, учитывая источник фальшивого фото и многих из тех, кто его распространял, происшествие можно считать примером создания пропаганды с помощью ИИ.

Источник: Bloomberg