Новые законы робототехники. Апология человеческих знаний в эпоху искусственного интеллекта - Фрэнк Паскуале Страница 33
- Категория: Научные и научно-популярные книги / Деловая литература
- Автор: Фрэнк Паскуале
- Страниц: 107
- Добавлено: 2022-12-13 21:16:07
Новые законы робототехники. Апология человеческих знаний в эпоху искусственного интеллекта - Фрэнк Паскуале краткое содержание
Прочтите описание перед тем, как прочитать онлайн книгу «Новые законы робототехники. Апология человеческих знаний в эпоху искусственного интеллекта - Фрэнк Паскуале» бесплатно полную версию:Появившиеся в последнее время в избытке консультанты по менеджменту так рисуют перспективы труда в будущем: если машина может делать то же, что и вы, значит, ваш труд будет автоматизирован. Они убеждают бизнесменов и политиков, что все специалисты, от врачей до солдат, окажутся не нужны, поскольку на их место придет постоянно развивающийся искусственный интеллект. А потому предлагается целесообразная, по их мнению, альтернатива: делайте роботов, или они заменят вас.
Но возможна и другая ситуация. Практически во всех сферах жизни роботизированные системы могут повысить, а не понизить ценность труда. Фрэнк Паскуале рассказывает, как медсестры, учителя, дизайнеры и другие специалисты могут сотрудничать с теми, кто развивает технологии, а не служить им источником данных для компьютерных устройств, которые должны их заменить. Такое сотрудничество показывает нам то технологическое развитие, которое способно дать человеческому обществу более качественное здравоохранение, образование и многое другое, сохранив при этом осмысленный труд. Подобное партнерство демонстрирует также, что право и регулирование могут стимулировать всеобщее процветание, а не игру с нулевой суммой, в которой люди были бы вынуждены состязаться с машинами.
В какой мере задачи, ранее выполнявшиеся людьми, стоит доверить искусственному интеллекту? Что при этом выигрывается и что теряется? Что представляет собой оптимальное сочетание человеческих и роботизированных взаимодействий? В «Новых законах робототехники» доказывается, что политики и чиновники не должны позволять корпорациям или инженерам отвечать на эти вопросы в одиночку. То, как будет происходить автоматизация, и то, кому она принесет выгоду, зависит от тысяч малых решений, определяющих путь развития искусственного интеллекта. Паскуале предлагает способы демократизации процесса принятия решений, противостоящей его централизации в фирмах, которые ни перед кем не отчитываются. Книга предлагает оптимистичный путь формирования технологического прогресса, при котором человеческие способности и экспертные знания становятся незаменимым центром инклюзивной экономики.
В формате PDF A4 сохранен издательский макет книги.
Новые законы робототехники. Апология человеческих знаний в эпоху искусственного интеллекта - Фрэнк Паскуале читать онлайн бесплатно
Во многих контекстах крупные технологические фирмы – это не только платформы, но также и публикаторы, не только посредники, но и медиа. Их собственные конструктивные решения означают, что резюме материалов, которые распространяются в Facebook, а также выдаются в мобильных приложениях и настольных версиях Google, стремятся выглядеть одинаково авторитетно, независимо от того, какой у них источник[286]. Соответственно, история из сфабрикованного издания Denver Guardian, в которой Хилари Клинтон безосновательно связывалась с самоубийством агента ФБР, может предстать столь же авторитетной, как и получившее Пулитцеровскую премию журналистское расследование, в котором подобные теории заговора разоблачались[287]. К тому же Facebook получает и более прямую прибыль от фейковых новостей: чем больше пользователи делятся какой-то историей (каковы бы ни были ее достоинства), тем больше рекламных прибылей она приносит[288]. К концу выборов 2016 г. фейковые новости в Facebook в этом плане превзошли по эффективности реальные новости[289]. Нам всем известно, что Facebook помог кампании Трампа сосредоточить свои силы на афроамериканской аудитории, чтобы подавить их голоса[290].
Пока рекламные деньги продолжали сыпаться, этика во всем этом играла вторичную роль. Директоров по безопасности в фирме игнорировали, даже когда они говорили топ-менеджерам, что государственные и негосударственные акторы занимаются на платформе злонамеренными манипуляциями[291]. Конечно, Facebook в этом был не одинок; безответственность маргинальных новостных источников (и нерадивость достойных медиаинститутов) ускорила рост популярности авторитарных лидеров, известных своей ксенофобией. Однако гиганты технической индустрии редко оказывались невинными попутчиками. Facebook крайне неохотно реагировал на вирусное содержание фейкового характера, вводящее в заблуждение[292]. Если Джеку Дорси из Twitter понадобилось шесть лет, чтобы остановить такого разоблачителя истории Сэнди Хук, как Алекс Джонс (агрессивно защищавшего сторонников теории заговора, которые изводили родителей убитых детей, заявляя, что родители сами подстроили резню), значит, что-то с сетью не так. Основная проблема – слепая вера в ИИ, стоящий за алгоритмическими лентами новостей, и вытекающее из этой веры уклонение от ответственности руководителей технологических компаний, которые могли бы приструнить смутьянов.
Технологические гиганты более не могут убедительно выдавать себя за платформы для чужого контента, особенно когда они наживаются на микротаргетировании рекламы, доносящем определенный контент до людей, на которых она более всего влияет[293]. Они должны взять на себя редакторскую ответственность, а это значит, что следует привлечь намного больше журналистов и фактологов, чтобы справиться с проблемами, которые алгоритмы решить не смогли[294]. Апологеты крупных технологических фирм заявляют, что несколько фирм не могут брать на себя подобную ответственность (или что это просто глупо). Они утверждают, что объем распространяемого контента просто-напросто слишком велик, чтобы им управлял какой-то человек или какая-то группа. Они продолжают раздраженно настаивать на том, что идеальное решение проблем платформ – это алгоритмы, а не человеческие знания и навыки. Этот аргумент игнорирует реальность постоянной алгоритмической и ручной настройки новостных потоков в таких сетях, как Facebook[295]. Любое устойчивое решение проблемы потребует сотрудничества журналистов и программистов.
Проблема уклонения больших технологических компаний от своих обязанностей собственника
После каждого крупного скандала большие технологические фирмы приносят извинения и обещают исправиться. Иногда они даже вкладывают деньги в более обширную модерацию контента или закрывают наиболее одиозные источники дезинформации и насилия. Однако каждый шаг к безопасности и ответственности на платформах может быть отменен из-за неспособности все время следить за проблемой, халатности и потенциальной прибыли, которая скрывается в привлекательном и красочном контенте. Этот цикл мы наблюдали в случае Google и антисемитизма. Хотя в 2004 г. поисковый гигант снабдил наконец специальными метками некоторые сайты с нацистским содержанием и издания расистов, позже он отступил, пока в 2016 г. к нему не обратились журналистка Кэрол Кадваладр и известный исследователь Сафия Умоя Нобле[296]. К 2018 г. многие заподозрили, что алгоритмическая «кроличья нора» была оптимизирована искусственным интеллектом так, чтобы завлекать ничего не подозревающих пользователей к контенту альт-правых или даже к более опасным источникам[297]. Пока ИИ управляет автоматической публичной сферой, нацеленной на получение прибыли, можно ожидать повторения той же схемы: приступ озабоченности, вызванный критикой в адрес медиа, после которого снова воцаряется безответственность.
Хотя подобное отступление не является неизбежным, такова ясная и актуальная опасность ИИ, для которого в основном важны лишь требования акционеров крупнейших фирм. Только масштаб может дать прибыли, которые нужны инвесторам, и только ИИ может управлять масштабом на его актуальном уровне. Как заметил Ивэн Оснос в своей статье о Марке Цукерберге, «между масштабом и безопасностью он выбрал масштаб»[298]. Дети, диссиденты, модераторы, владельцы взломанных аккаунтов и другие жертвы – все они ежедневно несут на себе бремя этого решения, переживая предсказуемые последствия гигантизма социальной сети. И если огромные банки стали слишком большими, чтобы обанкротиться, гигантские технологические фирмы слишком велики, чтобы подобные последствия их волновали.
Раньше электронной нянькой считалось телевидение, которое развлекало детей, чьи родители были слишком заняты или бедны, чтобы занять их чем-то более интересным. YouTube выдает миллионы различных мультфильмов, которые помогают родителю или няньке с клинической точностью найти именно то, что загипнотизирует кричащего младенца или уставшего ребенка. Но огромный запас видеоматериалов, которые доступны по одному клику, неимоверно усложняет задачу родительского контроля. Если какие-то нездоровые люди включали в мультипликационный контент инструкции о том, как совершить самоубийство, искусственный интеллект YouTube, ничего не понимающий в смысле ролика, ставил ему такой же рейтинг, что и совершенно невинным детским программам.
Обычный процесс модерации контента на YouTube в принципе со временем может улучшиться, научившись быстрее отлавливать видеоматериалы такого рода. Но некоторый контент, порождаемый алгоритмами, вызывает опасения другого уровня. Учитывая распространение в сети автоматических ремиксов, такие невинные мультипликационные герои, как свинка Пеппа, могут болтать в видео с друзьями, а потом размахивать ножами и ружьями в «сатирическом» ролике, который автоматически запускается сразу после настоящего. Художник Джеймс Бридл утверждает, что дело не ограничивается одной лишь благопристойностью. По его словам, в таких видео с Пеппой особенно пугает то, что «очевидные пародии и мрачные пастиши взаимодействуют с легионами
Жалоба
Напишите нам, и мы в срочном порядке примем меры.