Сломанный код. Внутри Facebook и борьба за раскрытие его вредных секретов - Джефф Хорвиц Страница 23
- Категория: Научные и научно-популярные книги / Деловая литература
- Автор: Джефф Хорвиц
- Страниц: 96
- Добавлено: 2024-02-14 16:13:13
Сломанный код. Внутри Facebook и борьба за раскрытие его вредных секретов - Джефф Хорвиц краткое содержание
Прочтите описание перед тем, как прочитать онлайн книгу «Сломанный код. Внутри Facebook и борьба за раскрытие его вредных секретов - Джефф Хорвиц» бесплатно полную версию:Взгляд из-за кулис на манипулятивные тактики, которые использовал Facebook для развития своего бизнеса, на то, как он исказил способ нашего общения в Интернете, и на инсайдеров компании, которые нашли в себе мужество высказаться.
Книга рассказывает о стратегических промахах Facebook в борьбе с ее участием в распространении дезинформации, политическом расколе и даже геноциде. Книга наполнена поразительной, порой оруэлловской статистикой и анекдотами, которые могли появиться только изнутри.
Когда-то Facebook был непревзойденным титаном социальных сетей и занимал особое место в культуре и политике. Вместе со своими родственными платформами Instagram и WhatsApp он был ежедневным местом посещения для миллиардов пользователей по всему миру. Как внутри компании, так и за ее пределами Facebook превозносил свои продукты как сближающие людей и дающие им право голоса. Но после выборов 2016 года даже некоторые топ-менеджеры компании стали считать эти утверждения упрощенной идеей. Facebook пропагандировал и усиливал гнев, смотрел сквозь пальцы на торговлю людьми, поддерживал наркокартели и авторитарные режимы, позволял VIP-пользователям нарушать якобы незыблемые правила платформы.
Джефф Хорвиц - репортер The Wall Street Journal, освещающий вопросы мета- и социально-медийных платформ.
Сломанный код. Внутри Facebook и борьба за раскрытие его вредных секретов - Джефф Хорвиц читать онлайн бесплатно
Циник мог бы справедливо заметить, что такая принципиальная сдержанность давала дополнительные преимущества: требовала меньше работы и приносила больше отдачи. Но люди, общавшиеся с генеральным директором, в целом считали, что его позиция отражает идеологию в большей степени, чем выгоду или целесообразность. Если вы считали, что ленты пользователей Facebook отражают их желания - а Цукерберг считал именно так, - то вы с подозрением относились к попыткам вмешаться в них.
Каков бы ни был источник этих настроений, они практически исключали самый простой подход к борьбе с дезинформацией: просто снижать уровень сенсационности и привлекательности приманки чаще и жестче, чем сейчас, жертвуя точностью ради повышения запоминаемости. Такой подход был исключен.
Обязанность Facebook уважать предпочтения пользователей создавала еще одну проблему. Согласно метрикам, которые использовала платформа, дезинформация была тем, чего хотели люди. Все метрики, которые использовал Facebook, показывали, что людям нравятся истории с сенсационными и вводящими в заблуждение заголовками, и они ими делятся.
Макнелли подозревал, что показатели затушевывают реальное положение дел. Его команда решила доказать, что на самом деле это не так. Они обнаружили, что, несмотря на то, что пользователи регулярно пользуются контентом-приманкой, в ходе опросов они соглашались с тем, что такой материал не представляет для них ценности. Когда им сообщали, что они поделились ложным контентом, они испытывали сожаление. И, как правило, они считали, что проверка фактов содержит полезную информацию.
Поэтому Макнелли, действуя в духе институционализма, организовал еженедельные встречи с Адамом Моссери и Джоном Хегеманом, чтобы доказать, что, когда речь идет о приманках и фальшивых новостях, на показатели вовлеченности просто нельзя полагаться, чтобы отразить то, что пользователи действительно ценят.
Его усилия окупились. В мае 2017 года Facebook объявил, что начнет удалять кликбейт не потому, что он вводит в заблуждение, является сенсационным или мошенническим, а потому, что пользователи сказали им, что им не нравятся вещи, которые вводят в заблуждение, являются сенсационными или спамными. Оказалось, что официальный нейтралитет - это ключ, который может открыть целый корпус работ.
"Мы пытаемся выяснить, что вызывает раздражение, и боремся с дезинформацией независимо от нее", - говорит Макнелли о таком подходе.
Стратегия заключалась в том, чтобы обвинять издателей мистификаций в их неприятном поведении, а не в публикации фальшивых новостей. На сайтах фальшивых новостей, как правило, было много рекламы, а люди не любят рекламу, что оправдывало снижение рейтинга. Кроме того, такие сайты обычно запускают всплывающие окна, а их все ненавидят. Сайты фальшивых новостей в среднем загружались на мгновение дольше, чем более легитимные издания, а никто не любит ждать.
Если бы не проблема фальшивых новостей, у Facebook не было бы шансов сделать приоритетными эти инициативы, многие из которых были, по крайней мере, в некоторой степени избыточными. Но здесь велась какая-то игра. Чтобы избежать необходимости разбираться в истине, компания наказывала издателей фальшивок за все, кроме того, что их новости не соответствовали действительности.
Ранжирование было не единственным рычагом, доступным команде Макнелли. Они создали ярлыки для проверки фактов, которые занимали физическое пространство, отведенное для ложного сообщения, тем самым лишая его внимания при прокрутке пользователем. А для того, чтобы дать фактологам Facebook небольшую фору в борьбе с вирусными ложными новостями, они создали классификатор, который проверял комментарии на предмет распространенных проявлений неверия, отдавая предпочтение постам с высоким процентом скептических комментариев.
Другие социальные медиаплатформы, такие как YouTube и Twitter, применяли аналогичную тактику, но Facebook, пожалуй, двигался быстрее всех и, безусловно, был самым прозрачным. В течение 2017 года были запущены десятки различных инициатив.
Макнелли научился преодолевать внутренние препятствия, но иногда угрозы для работы с дезинформацией исходили извне компании. Один из агрессивных подходов к борьбе с дезинформацией заключался в том, чтобы просто отделить новости от ленты пользователей, поместив их в отдельную вкладку, которая выполняла бы роль своеобразного карантина. Если раньше Facebook стремился расширить распространение новостей, пытаясь противостоять Twitter, то теперь он пытается их сократить. Как и в случае с большинством крупных изменений в дизайне, Facebook протестировал отдельную вкладку новостей на нескольких небольших рынках, включая Боливию, Камбоджу и Сербию.
Тест, проведенный в конце 2017 года, привел к падению потребления новостей на платформе и разозлил издателей. Ссылаясь на падение трафика легального боливийского новостного издания, которое полагалось на Facebook, New York Times обвинила Facebook в превращении страны в "подопытного кролика в постоянном стремлении компании изобрести себя заново".
После резкой критики со стороны как старых, так и начинающих цифровых издателей Facebook отменил эксперимент. Ирония была близка к поверхности. Издатели новостей обвиняли Facebook в деградации всей новостной экосистемы. Но когда компания предприняла шаг, который уменьшил бы ее роль в распространении новостей, издатели закричали.
"То, что внешний мир хочет от Facebook, противоречиво и не может быть удовлетворено", - сказал Макнелли.
Возможно, идею с вкладкой новостей можно было объяснить лучше, а может быть, это был просто неправильный подход. Но каждый раз, когда подобное предложение с благими намерениями разлеталось в пух и прах, люди, работающие над дезинформацией, теряли немного позиций. В отсутствие последовательных, согласованных требований со стороны внешнего мира , Facebook всегда возвращался к логике максимизации собственных показателей использования.
"Если что-то не будет хорошо выглядеть, когда это попадет в основные СМИ, они могут колебаться, стоит ли это делать", - говорит Макнелли. "В других случаях нам советовали делать меньшие шаги и посмотреть, заметит ли кто-нибудь. Ошибки всегда были на стороне того, чтобы делать меньше".
Хотя Макнелли добился определенного успеха, заставив компанию обратить внимание не только на то, чем занимались пользователи, но и на то, что им было нужно. Нигде его команда не столкнулась с ними так явно, как в попытке создать новую метрику, известную как "Широкое доверие".
В течение многих лет команда компании по партнерству с медиа пыталась придумать, как склонить чашу весов Facebook в сторону крупных уважаемых издательств и отвлечься от заезжих цифровых новостных источников, которые регулярно их опережали. Команда Partnerships предлагала просто дать мейнстримным изданиям преимущество - например, повысить их рейтинг в ленте. Эта идея была сразу же отклонена. Facebook был не более заинтересован в оценке качества, чем в оценке фактов.
Макнелли увидел возможность выйти на аналогичную территорию таким образом, чтобы компания не выбирала фаворитов. Вместо того чтобы отдавать предпочтение надежным изданиям перед случайными новичками, платформа могла бы дать преимущество источникам, которым доверяют сами пользователи.
Как бы ни привлекал людей контент сомнительных издательств на Facebook, они редко искали материалы вне платформы или даже знали, откуда они взялись.
Жалоба
Напишите нам, и мы в срочном порядке примем меры.