Сломанный код. Внутри Facebook и борьба за раскрытие его вредных секретов - Джефф Хорвиц Страница 22

Тут можно читать бесплатно Сломанный код. Внутри Facebook и борьба за раскрытие его вредных секретов - Джефф Хорвиц. Жанр: Научные и научно-популярные книги / Деловая литература. Так же Вы можете читать полную версию (весь текст) онлайн без регистрации и SMS на сайте «WorldBooks (МирКниг)» или прочесть краткое содержание, предисловие (аннотацию), описание и ознакомиться с отзывами (комментариями) о произведении.
Сломанный код. Внутри Facebook и борьба за раскрытие его вредных секретов - Джефф Хорвиц

Сломанный код. Внутри Facebook и борьба за раскрытие его вредных секретов - Джефф Хорвиц краткое содержание

Прочтите описание перед тем, как прочитать онлайн книгу «Сломанный код. Внутри Facebook и борьба за раскрытие его вредных секретов - Джефф Хорвиц» бесплатно полную версию:

Взгляд из-за кулис на манипулятивные тактики, которые использовал Facebook для развития своего бизнеса, на то, как он исказил способ нашего общения в Интернете, и на инсайдеров компании, которые нашли в себе мужество высказаться.

Книга рассказывает о стратегических промахах Facebook в борьбе с ее участием в распространении дезинформации, политическом расколе и даже геноциде. Книга наполнена поразительной, порой оруэлловской статистикой и анекдотами, которые могли появиться только изнутри.

Когда-то Facebook был непревзойденным титаном социальных сетей и занимал особое место в культуре и политике. Вместе со своими родственными платформами Instagram и WhatsApp он был ежедневным местом посещения для миллиардов пользователей по всему миру. Как внутри компании, так и за ее пределами Facebook превозносил свои продукты как сближающие людей и дающие им право голоса. Но после выборов 2016 года даже некоторые топ-менеджеры компании стали считать эти утверждения упрощенной идеей. Facebook пропагандировал и усиливал гнев, смотрел сквозь пальцы на торговлю людьми, поддерживал наркокартели и авторитарные режимы, позволял VIP-пользователям нарушать якобы незыблемые правила платформы.

Джефф Хорвиц - репортер The Wall Street Journal, освещающий вопросы мета- и социально-медийных платформ.

Сломанный код. Внутри Facebook и борьба за раскрытие его вредных секретов - Джефф Хорвиц читать онлайн бесплатно

Сломанный код. Внутри Facebook и борьба за раскрытие его вредных секретов - Джефф Хорвиц - читать книгу онлайн бесплатно, автор Джефф Хорвиц

наложить штрафные санкции на другие истории, появившиеся на тех же доменах. Но эти меры имели лишь ограниченный эффект. К тому времени, когда Facebook занялся проблемой фальшивых новостей, македонцы и их подражатели уже давно вышли за рамки статуса хоббистов. Теперь они поддерживали сотни в основном бесполезных сайтов с названиями вроде "The Denver Guardian". Когда один из них становился мишенью, организация, стоящая за ним, могла просто переключиться на другой, продвигая контент через сети страниц Facebook.

"В Facebook осознание того, что есть противники, играющие в движок, пришло поздно, - говорит Макнелли. Чтобы вытеснить распространителей фальшивых новостей с платформы, Facebook должен был сделать публикацию бредовых историй невыгодной на постоянной основе. И, как и в предыдущей работе Макнелли по борьбе со спамом и рекламным мошенничеством, первым шагом было выяснение того, чем поведение издателей фальшивых новостей отличается от поведения легальных изданий.

Отличительной чертой стало бесстыдство издателей фальшивых новостей в их стремлении привлечь к себе внимание. Наряду с плохой информацией на их страницах неизменно присутствовали clickbait (сенсационные заголовки) и engagement bait (прямые призывы к пользователям взаимодействовать с контентом, тем самым распространяя его дальше).

Facebook уже не одобрял эти методы ажиотажа, считая их немного спамными, но, по правде говоря, ничего особенного с ними не делал. Насколько большой ущерб может нанести вирусная запись "Поделитесь этим, если вы поддерживаете войска"?

Оказалось, что ответ на этот вопрос, когда такой способ повышения вовлеченности используется в операциях по созданию фальшивых новостей, был весьма существенным. Поэтому команда Макнелли начала работать над усилением мер по борьбе с тем, что раньше считалось мелким проступком. Если бы Facebook могла бороться с гиперболическими высказываниями и попытками искусственно подтолкнуть пользователей к участию, возможно, это сделало бы проблему фальшивых новостей более решаемой.

Для того чтобы провести такую репрессию, Facebook необходимо было создать системы для обнаружения плохих постов. Инженеры скормили системе машинного обучения примеры сенсационных постов и постов-приманок, обучив ее отличать такие материалы от более сдержанного контента. Полученный алгоритм предсказывал вероятность того, что пост является приманкой, по шкале от нуля до единицы.

Эта техника, называемая контролируемым обучением, была технически сложной, но концептуально простой. Цель заключалась в том, чтобы надежно распознавать весь плохой контент, который он видел, без ложных срабатываний. Конечно, такое автоматическое совершенство невозможно, и при определении того, как и стоит ли использовать инструмент, который неизбежно приведет к ошибкам, приходилось принимать сложные решения. Всегда существовал компромисс между точностью (как часто классификатор ошибается) и отзывом (какой процент целевого контента он действительно распознает).

То, что Facebook больше ценит - точность или запоминание, - зависело от того, что ее больше беспокоило: ложноотрицательные или ложноположительные результаты. Если Facebook задумывалась об автоматическом удалении фальшивых аккаунтов, она должна была быть более чем на 99 % уверена в том, что пользователь является фальшивым, прежде чем нажимать на курок, даже если такой уровень точности означал, что миллионы фальшивых аккаунтов останутся нетронутыми. В других обстоятельствах гораздо большее значение имеет отзыв: классификатор, выявляющий сообщения с потенциальными суицидальными намерениями, должен быть осторожен и отправлять контент на проверку человеку, даже если вероятность того, что он окажется пригодным к действию, невелика.

Большинство проблем с целостностью оказались между этими двумя крайностями. Facebook не хотел, чтобы люди видели на его платформе язык ненависти, но он не был готов удалять или вручную проверять каждое сообщение, которое классификатор отмечал как потенциально оскорбительное. В этом случае компании приходилось хеджировать свои ставки.

Решением стало понижение рейтинга. Вместо того чтобы удалять или пересматривать сомнительный пост, Facebook мог просто поставить большой палец на шкалу новостной ленты, чтобы он попал к меньшему количеству людей, снизив его оценку в рейтинге, определяющем, что появляется в ленте пользователя. Если штраф был достаточно велик, то сомнительный пост либо пропадал совсем, либо оказывался так далеко в очереди, что пользователь вряд ли до него добирался.

Преимущество понижения рейтинга заключалось в том, что Facebook не нужно было решать, является ли контент приемлемым или нет. Ближайшие друзья пользователя могли по-прежнему видеть сообщение, но для всех остальных пониженный в рейтинге контент просто заменялся следующим в очереди. Это также снижало цену неточности. Поскольку ничего не удалялось, никто не расстраивался. Но Facebook все равно не хотел подавлять контент на зыбких основаниях. Никто не хотел, чтобы платформа служила автоматической полицией нравов, хоронящей любой пост с острыми выражениями или намеком на кожу. Совершенно безопасная платформа была бы совершенно скучной.

Поэтому вопрос о том, как откалибровать смесь автоматических удалений и понижений контента, был одновременно и практическим, и философским. Если вы считали, что плохой контент представляет собой серьезную опасность, и полагали, что Facebook несет ответственность за то, какой контент он рекомендует, вы, скорее всего, предпочли бы относительно жесткий подход. Но если вы рассматривали Facebook как нейтральную платформу, предоставляющую пользователям персонализированный контент, вы сочли бы такой подход излишне строгим, возможно, даже неэтичным. Лента новостей пользователей отражает их личные предпочтения и вкусы, и Facebook должен как можно меньше вмешиваться в их выражение.

" Вред возникает в ситуациях, когда зритель не видит того, что он действительно хотел увидеть", - говорится в одной из внутренних исследовательских записок, подытоживающей позицию минималистов и утверждающей, что изменения в рейтинге, лишающие пользователей доступа к максимально интересному контенту, не позволяют "уважать" их суждения.

Эти дебаты время от времени вспыхивали на Workplace, хотя абсолютное мнение сотрудников с той или иной стороны было редкостью. Максималисты с сайта не считали, что Facebook должна принимать меры против всего потенциально вредного контента, а минималисты не думали, что Facebook должна уважать аппетит белых супремасистов к расистским мемам. Facebook не отвечал за все, что размещали и потребляли его пользователи, но и не был вольницей открытого интернета.

Где бы ни находился Цукерберг и большинство высших руководителей Facebook, сомнений не возникало. Несмотря на попытки некоторых кругов представить Facebook как тирана, помешанного на цензуре, генеральный директор всегда казался более озабоченным тем, чтобы не переусердствовать с модерацией. Facebook должен как можно меньше управлять своей платформой, удаляя только однозначно плохой контент и требуя перевеса доказательств для даже скромного подавления контента. Эти препятствия привели к тому, что вмешательство в добросовестность происходило в основном на периферии - позднее исследование показало, что корректировки ленты новостей, снижающие рейтинг графического насилия, некачественной медицинской информации и дезинформации, изменяли лишь крошечный процент сеансов пользователей, и даже тогда пользователи не сообщали, что их лента стала меньше стоить их времени. В ослабленном виде понижение Sparing Sharing Гомеса-Урибе затронуло

Перейти на страницу:
Вы автор?
Жалоба
Все книги на сайте размещаются его пользователями. Приносим свои глубочайшие извинения, если Ваша книга была опубликована без Вашего на то согласия.
Напишите нам, и мы в срочном порядке примем меры.
Комментарии / Отзывы
    Ничего не найдено.