Новые законы робототехники. Апология человеческих знаний в эпоху искусственного интеллекта - Фрэнк Паскуале Страница 36
- Категория: Научные и научно-популярные книги / Деловая литература
- Автор: Фрэнк Паскуале
- Страниц: 107
- Добавлено: 2022-12-13 21:16:07
Новые законы робототехники. Апология человеческих знаний в эпоху искусственного интеллекта - Фрэнк Паскуале краткое содержание
Прочтите описание перед тем, как прочитать онлайн книгу «Новые законы робототехники. Апология человеческих знаний в эпоху искусственного интеллекта - Фрэнк Паскуале» бесплатно полную версию:Появившиеся в последнее время в избытке консультанты по менеджменту так рисуют перспективы труда в будущем: если машина может делать то же, что и вы, значит, ваш труд будет автоматизирован. Они убеждают бизнесменов и политиков, что все специалисты, от врачей до солдат, окажутся не нужны, поскольку на их место придет постоянно развивающийся искусственный интеллект. А потому предлагается целесообразная, по их мнению, альтернатива: делайте роботов, или они заменят вас.
Но возможна и другая ситуация. Практически во всех сферах жизни роботизированные системы могут повысить, а не понизить ценность труда. Фрэнк Паскуале рассказывает, как медсестры, учителя, дизайнеры и другие специалисты могут сотрудничать с теми, кто развивает технологии, а не служить им источником данных для компьютерных устройств, которые должны их заменить. Такое сотрудничество показывает нам то технологическое развитие, которое способно дать человеческому обществу более качественное здравоохранение, образование и многое другое, сохранив при этом осмысленный труд. Подобное партнерство демонстрирует также, что право и регулирование могут стимулировать всеобщее процветание, а не игру с нулевой суммой, в которой люди были бы вынуждены состязаться с машинами.
В какой мере задачи, ранее выполнявшиеся людьми, стоит доверить искусственному интеллекту? Что при этом выигрывается и что теряется? Что представляет собой оптимальное сочетание человеческих и роботизированных взаимодействий? В «Новых законах робототехники» доказывается, что политики и чиновники не должны позволять корпорациям или инженерам отвечать на эти вопросы в одиночку. То, как будет происходить автоматизация, и то, кому она принесет выгоду, зависит от тысяч малых решений, определяющих путь развития искусственного интеллекта. Паскуале предлагает способы демократизации процесса принятия решений, противостоящей его централизации в фирмах, которые ни перед кем не отчитываются. Книга предлагает оптимистичный путь формирования технологического прогресса, при котором человеческие способности и экспертные знания становятся незаменимым центром инклюзивной экономики.
В формате PDF A4 сохранен издательский макет книги.
Новые законы робототехники. Апология человеческих знаний в эпоху искусственного интеллекта - Фрэнк Паскуале читать онлайн бесплатно
Флорида, уставшая от хитростей бессовестных реабилитационных центров, запретила их маркетинг, вводящий клиентов в заблуждение[318]. Не вполне ясно, насколько эффективным был этот запрет.
Практически в каждом штате в США есть закон о защите прав потребителей, и такие законы, вероятно, запрещали наиболее сомнительные практики лидогенераторов реабилитационных клиник, как и сами эти клиники, еще до того, как они попали в поле общественного внимания. У сотрудников правоохранительных органов просто недостаточно ресурсов, чтобы расследовать каждый подозрительный случай, особенно когда цифровые манипуляторы могут легко скрыть свою идентичность и перенести фирму, если расследование началось, в другое место. Крупные интернет-фирмы должны сами заниматься каким-то отсевом, иначе уязвимые группы населения станут жертвами хищников, пытающихся на них нажиться[319].
Справедливое и инклюзивное правление не может быть алгоритмическим
Когда Конгресс США вызвал Марка Цукерберга на слушания о неоднократно замеченной неспособности его социальной сети отсеивать фейковые новости, манипуляции избирателями и злоупотребления данными, гендиректор Facebook говорил одно и то же: чтобы решить эту проблему, мы работаем над искусственным интеллектом. Критики проявили скепсис. Был, к примеру, такой злой заголовок: «ИИ решит самые неприятные проблемы Facebook. Только не спрашивайте, когда и как» [320]. На телеконференции, посвященной финансовой деятельности компании, Цукерберг признал, что на определенных фронтах прогресс может оставаться довольно медленным: «Гораздо проще создать ИИ-систему, которая будет распознавать сосок, чем высказывания, разжигающие ненависть», – пояснил он. Другими словами, поскольку Facebook называет себя «ИИ-компанией», запрет определенных изображений обнаженного тела на платформе получил более высокий приоритет среди менеджеров, чем искоренение высказываний, разжигающих ненависть.
Это мимолетное замечание позволило замять важные споры о цензуре, ценностях и ответственности в сети. Есть совершенно разные взгляды на то, следует ли вообще запрещать изображения обнаженного тела в крупных социальных сетях, и что должно обладать более высоким приоритетом. Политика сайта не всегда последовательна и не исполняется автоматически. Одна из компаний Facebook, а именно Instagram, не позволяет пользователям публиковать фотографии обнаженных тел или их цифровые репрезентации, но допускает рисованные изображения такого рода[321]. Возможно, это различие обосновано стремлением защитить художественные изображения наготы, но запретить порнографические или эксплуатационные. Юридические нормы, определяющие непристойность, построены на подобных различиях; однако также они встроены в гораздо более обширную систему оценок. Вне такого контекста различие физического и цифрового не является надежным критерием различия эстетического и неэстетического: легко представить рисованную порнографию и цифровые рисунки или фотографии обнаженных тел, обладающие значительной художественной ценностью.
Однако различие цифрового и нецифрового очень полезно в другом отношении: намного проще представить будущую систему машинного зрения, которая легко определяет разницу между краской и пикселями, чем машину, которая бы уверенно отличала кадр из начала порнографического фильма от художественной фотографии, документирующей жизнь секс-работников. Первая – задача по простому распознаванию паттерна, и можно представить себе, как сотни тысяч изображений будут безо всяких проблем относиться к той или другой категории, например, силами работников платформы Mechanical Turk компании Amazon (или даже автономной системой машинного обучения)[322]. Вторая задача является предметом морального и эстетического суждения, и это суждение может не только меняться со временем, но также по-разному выноситься в разных местах. Мы не должны позволять ограничениям определенного инструмента (ИИ) задавать половинчатый или неуклюжий подход к сложному культурному и политическому вопросу (сколько изображений обнаженных тел может быть в социальных сетях, которые легко доступны детям)[323].
В хорошо выстроенной политической структуре общество обсуждает пределы непристойности, а регулирующие органы должны решать, что запрещать и что игнорировать, при этом суды могут вступиться за права тех, кто был несправедливо отсеян предубежденными или пристрастными людьми и организациями, принимающими решения. Даже если бы могли в принципе закодировать в 2020 г. суждения о том, какие типы изображений на платформах допустимы, а какие нет, какая ценность была бы у такого кода в 2030 г. или 2040 г.? Взгляды меняются, аудитория и цели платформ расширяются и сокращаются, о чем, к своему неудовольствию, узнали владельцы Tumblr после запрета в этой сети порнографии. Управление в такой ситуации – постоянная обязанность, которую нельзя механизировать раз и навсегда. Также не может быть простым решением и добровольный вклад пользователей, как выяснил Amazon, когда гомофобы отметили тысячи книг о гей-культуре меткой «только для взрослых», чтобы они автоматически скрывались из выдачи. Целеустремленные экстремисты, которым помогают боты и хакеры, могут легко пересилить крепкое большинство. Так называемые тенденции к демократизации в интернете столкнулись с циркулярной пилой монополистов, отказывающихся от своей ответственности, заинтересованных манипуляторов и автоматической «речи» ботов.
Убежденные технофилы готовы утверждать, что решение о том, является ли нагота эстетической или непристойной, заслуживающей или незаслуживающей внимания, – это вопрос исключительно вкуса. Обычно они считают, что вкус «ниже» машинного интеллекта, то есть это какое-то второсортное знание, поскольку его нельзя свести к алгоритму. Но эту иерархию легко перевернуть, отдав приоритет нестандартизируемым суждениям, а не тем, что определяются данными и правилами. Возможно, мы не хотим инвестировать ресурсы в то, чтобы такие решения принимались людьми, выносящими решения и спорящими. Но это должно быть специальное решение о распределении ресурсов, а не следствие диктата неизбежности прогрессивного развития по направлению к искусственному интеллекту.
Право быть забытым: испытание человечной автоматизации
Каждый раз, когда жертвы манипуляций предлагают те или иные меры регулирования, им предсказуемо возражает хор голосов, утверждающих, что, как бы плохо технологические фирмы ни справлялись с этой задачей, государственное вмешательство будет еще хуже. Однако у нас уже есть один важный пример успешной и человечной автоматизации публичной сферы: европейское регулирование автоматического поиска имен, известное как «право на забвение». Для понимания важности этого права представьте, что кто-то создал сайт о худшем, что с вами когда-либо случалось, или о вашем худшем поступке, и что этот сайт всегда выводится в топе результатов при поиске по вашему имени. В США вы в таком случае юридической помощи не найдете; корпоративные лоббисты и идеологи либертарианства выступили единым фронтом, чтобы сделать подобное регулирование политически неприемлемым. Но в Европе «право на забвение» гарантирует, что неумолимая логика чисто алгоритмического поиска не приклеит к человеку навечно «алую букву».
«Право на забвение» – хорошее испытание технологии управления, разделяющей ценности политического общества в целом (а не только тех, кому
Жалоба
Напишите нам, и мы в срочном порядке примем меры.