Новости
Facebook Papers: внутри компании царят хаос и неразбериха, Цукерберг блокирует многие идеи по улучшению, потому что они могут навредить бизнесу

Facebook Papers: внутри компании царят хаос и неразбериха, Цукерберг блокирует многие идеи по улучшению, потому что они могут навредить бизнесу

Facebook Papers: внутри компании царят хаос и неразбериха, Цукерберг блокирует многие идеи по улучшению, потому что они могут навредить бизнесу

В последние месяцы Facebook была в центре внимания в результате утечки документов от разоблачителя Фрэнсис Хауген. Эти сведения просачивались в некоторые СМИ, а также привлекли внимание правительственных чиновников. Теперь эти документы становятся более общедоступными, что позволяет лучше оценить деятельность Facebook.

Представители СМИ смогли получить отредактированные документы, основанные на расследовании Комиссии по ценным бумагам и биржам США, а также на данных, предоставленных Фрэнсис Хауген Конгрессу США. Ресурс The Verge поделился частью имеющейся у него информации и намерен в дальнейшем продолжать публикации на эту тему. Кратко остановимся на основных выводах.

Facebook подверглась резкой критике за то, как она обрабатывала дезинформацию о COVID. В том числе президент США Байден обвини платформу в «убийстве людей», которая позволила антивакцинаторским настроениям выйти из-под контроля. Как свидетельствуют утечки, усилия Facebook по борьбе с дезинформацией были хаотичными. Например, сотрудник обращал внимание на неготовность платформы работать с соответствующими комментариями. Другой сотрудник также говорил, что комментарии представляют собой значительную часть дезинформации на Facebook, и они представляют собой «почти полную слепую зону».

Также сообщается, что Facebook не беспокоилась о контенте, связанном с торговлей людьми, до тех пор, пока на эту проблему не обратила внимание Apple. Из сообщений BBC News стало известно, что в некоторых регионах домашние работники продаются через Instagram и другие приложения. При этом продавцы поощряют покупателей к жестокому обращению с работниками, конфискуют их паспорта. Компании из Купертино 23 октября 2019 года пригрозила удалить приложения Facebook и Instagram с платформы iOS. И лишь после этого Facebook начала бороться с контентом о торговле людьми.

Выяснилось, что Марк Цукерберг лично вмешался, чтобы гарантировать, что Facebook будет соблюдать репрессивный закон, принятый во Вьетнаме. Тем самым соцсеть согласилась более агрессивно проводить модерацию в отношении «антигосударственного» контента на платформе. Также стало известно, что у команды по обеспечению честности Facebook было много идей, как сделать соцсеть менее вредной для сообщества, но они обычно отклонялись, иногда самим Цукербергом.

В одном из документов описывается так называемый «эксперимент Querdenken». Он предусматривал, что модераторы Facebook используют более агрессивный подход модерации к немецкому движению Querdenken, распространяющему теорию заговора. В рамках эксперимента планировалось разработать способы реагирования на такие проблемы в будущем. Согласно предложению Facebook, движение Querdenken потенциально могло привести к насилию, но ещё не было связано с экстремальной активностью, которая оправдала бы полный запрет на платформе. И в дальнейшем соцсеть реализовала новую политику «скоординированного социального вреда», конкретно указывая Querdenken в качестве примера нового подхода. В отличие от многих других документов, эксперимент Querdenken показывает, что система модерации Facebook может быть относительно эффективной. Компания идентифицировала группу до того, как она причинила значительный ущерб, приняла меры с учётом долгосрочных последствий и проявила прозрачность в отношении изменения политики. Но этот инцидент показывает, насколько сложным может быть взаимодействие политики и правоприменения, при этом более широкие политики часто переписываются с оглядкой на конкретные группы. Это также свидетельствует, что соцсеть может изменить правила таким образом, чтобы не дать конкретному движению получить общественную поддержку.

Facebook обсуждала разработку крайних мер для ограничения распространения дезинформации, призывов к насилию и других материалов, которые могут сорвать президентские выборы 2020 года. Но когда бывший президент Дональд Трамп и его сторонники пытались помешать инаугурации Джо Байдена 6 января 2021 года, сотрудники Facebook пожаловались, что эти меры были введены слишком поздно или же заблокированы препятствиями технического и бюрократического характера.

СМИ и политические партии жаловались, что пользователи предпочитают негативный и гиперболический контент. Facebook рассматривала способы решения этой проблемы. Один из методов заключался в пересмотре ленты новостей таким образом, чтобы оптимизировать её для «общественного здоровья» вместо того, чтобы в первую очередь сосредоточиться на значимых социальных взаимодействиях или длительности сеанса. В феврале 2020 года компания провела эксперименты по ребалансировке ленты новостей, немного увеличив количество «социального» контента, а затем оптимизировала этот контент с помощью различных показателей. Facebook планировала внедрить новую систему оптимизации к марту 2020 года, хотя неясно, как пандемия коронавируса могла изменить эти планы.

Широко разрекламированный план скрыть количество лайков в Instagram так и не был реализован. В процессе тестирования выяснилось, что такой подход повредил доходам от рекламы и привёл к тому, что люди стали меньше использовать приложение. Соответствующее тестирование в приложении Facebook также было прекращено после того, как руководство заявило Цукербергу, что это не «главный барьер для обмена информацией и не главное беспокойство людей».

В октябре 2020 года Facebook объявила, что прекратит рекомендовать гражданские и политические группы пользователям в США. Но включить эти группы из каналов рекомендаций Facebook оказалось проблематично. Некоторые группы (около 30) смогли обходить систему фильтрации и продолжали появляться в лентах рекомендаций, что является явным нарушением правил. Как оказалось, для платформы было сложно провести чёткую грань между группами, считающимися «гражданскими». Позже проблему удалось обнаружить. Как оказалось, при классификации групп система мониторинга Facebook была обучена только смотреть на контент за последние 7 дней. Таким образом, страницы постоянно входили и удалялись из списка по мере изменения контента за просматриваемый период. В результате, после нескольких дней публикации не связанного с политикой контента, группа переставала соответствовать критерию.

Источник: The Verge


Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: