Новые законы робототехники. Апология человеческих знаний в эпоху искусственного интеллекта - Фрэнк Паскуале Страница 38

Тут можно читать бесплатно Новые законы робототехники. Апология человеческих знаний в эпоху искусственного интеллекта - Фрэнк Паскуале. Жанр: Научные и научно-популярные книги / Деловая литература. Так же Вы можете читать полную версию (весь текст) онлайн без регистрации и SMS на сайте «WorldBooks (МирКниг)» или прочесть краткое содержание, предисловие (аннотацию), описание и ознакомиться с отзывами (комментариями) о произведении.
Новые законы робототехники. Апология человеческих знаний в эпоху искусственного интеллекта - Фрэнк Паскуале

Новые законы робототехники. Апология человеческих знаний в эпоху искусственного интеллекта - Фрэнк Паскуале краткое содержание

Прочтите описание перед тем, как прочитать онлайн книгу «Новые законы робототехники. Апология человеческих знаний в эпоху искусственного интеллекта - Фрэнк Паскуале» бесплатно полную версию:

Появившиеся в последнее время в избытке консультанты по менеджменту так рисуют перспективы труда в будущем: если машина может делать то же, что и вы, значит, ваш труд будет автоматизирован. Они убеждают бизнесменов и политиков, что все специалисты, от врачей до солдат, окажутся не нужны, поскольку на их место придет постоянно развивающийся искусственный интеллект. А потому предлагается целесообразная, по их мнению, альтернатива: делайте роботов, или они заменят вас.
Но возможна и другая ситуация. Практически во всех сферах жизни роботизированные системы могут повысить, а не понизить ценность труда. Фрэнк Паскуале рассказывает, как медсестры, учителя, дизайнеры и другие специалисты могут сотрудничать с теми, кто развивает технологии, а не служить им источником данных для компьютерных устройств, которые должны их заменить. Такое сотрудничество показывает нам то технологическое развитие, которое способно дать человеческому обществу более качественное здравоохранение, образование и многое другое, сохранив при этом осмысленный труд. Подобное партнерство демонстрирует также, что право и регулирование могут стимулировать всеобщее процветание, а не игру с нулевой суммой, в которой люди были бы вынуждены состязаться с машинами.
В какой мере задачи, ранее выполнявшиеся людьми, стоит доверить искусственному интеллекту? Что при этом выигрывается и что теряется? Что представляет собой оптимальное сочетание человеческих и роботизированных взаимодействий? В «Новых законах робототехники» доказывается, что политики и чиновники не должны позволять корпорациям или инженерам отвечать на эти вопросы в одиночку. То, как будет происходить автоматизация, и то, кому она принесет выгоду, зависит от тысяч малых решений, определяющих путь развития искусственного интеллекта. Паскуале предлагает способы демократизации процесса принятия решений, противостоящей его централизации в фирмах, которые ни перед кем не отчитываются. Книга предлагает оптимистичный путь формирования технологического прогресса, при котором человеческие способности и экспертные знания становятся незаменимым центром инклюзивной экономики.
В формате PDF A4 сохранен издательский макет книги.

Новые законы робототехники. Апология человеческих знаний в эпоху искусственного интеллекта - Фрэнк Паскуале читать онлайн бесплатно

Новые законы робототехники. Апология человеческих знаний в эпоху искусственного интеллекта - Фрэнк Паскуале - читать книгу онлайн бесплатно, автор Фрэнк Паскуале

маркировки в очевидном случае высказывания, разжигающего ненависть, которое разгоняется манипулятивными методами. Чтобы не допустить экстремизм в центр публичного внимания, маркировкой можно снабжать исторические ресурсы и группы интересов с обманчиво невинными названиями, которые в действительности проповедуют опасные дискредитированные идеологии. Без такой маркировки упорная банда фанатиков, обладающих базовыми навыками программирования, способна взломать экономику внимания, воспользовавшись неспособностью автоматизированных систем верно размечать и разъяснять источники информации[333].

Автоматические боты изрядно поспособствовали распространению в сети экстремизма, а потому государства должны взять их под контроль. Крупнейшие технологические платформы борются с подобными аккаунтами спустя рукава. У таких платформ две обязанности. Они знают, что пользователям не нравятся утомительные комментарии с каких-то анонимных аккаунтов или просмотры видео, которые нагоняются автоматическими «фермами ботов». С другой стороны, у них не слишком много конкурентов, поэтому нет причин бояться оттока пользователей. В то же время боты повышают показатели вовлечения на платформе, которые являются святыней цифровых маркетологов.

В 2012 г. YouTube «поставил перед компанией задачу достичь миллиарда часов просмотров в день и переписал свою рекомендационную систему, чтобы максимизировать этот показатель»[334]. «Миллиард часов ежедневных просмотров стали для наших технических специалистов путеводной звездой», – сказала гендиректор Сьюзен Воджицки. К неудовольствию пользователей YouTube, эта фиксация на количественных показателях позволила мошенникам манипулировать рекомендациями и создавать трафик для источников опасной дезинформации, о которых мы уже упоминали. Чтобы выявлять и предупреждать подобную манипуляцию, социальные сети вместе с поисковыми машинами должны покончить с ботами, занимающимися подобными махинациями. Если они не смогут сделать этого, законы должны потребовать, чтобы каждый аккаунт раскрывал, кем он управляется: человеком или машиной. Все пользователи должны иметь возможность блокировать аккаунты ботов в пользовательских настройках, а еще лучше, если такая блокировка будет выставлена по умолчанию, так что от пользователя, чтобы открыть ботам и их автоматическим сообщениям доступ в свою новостную ленту, потребуется специально его подтвердить. Некоторые адепты технологии обеспокоены тем, что подобные ограничения могут сказаться на свободе слова. Однако чисто автоматический источник информации и манипуляции, за который не отвечает ни один человек, не должен обладать подобными правами. Государства могут блокировать шумные мини-дроны, которые вторгаются в наше личное пространство для распространения новостей, изображений и рекламы, и та же логика применима и в сети.

Защита свободы слова – для людей и только во вторую очередь (если она к ним вообще применима) для программ, алгоритмов и искусственного интеллекта[335]. Свобода слова для людей – чрезвычайно важная цель, если учесть контекст современных исследований манипуляций публичной сферой по всему свету. Как отметил Джеймс Гриммельман, призывая отнестись к авторскому праву роботов с осторожностью, Первая поправка в приложении к ИИ могла бы систематически отдавать предпочтение машинной речи, а не человеческой[336]. Если людям-ораторам приходится учитывать законы о клевете и другие формы ответственности, наступающей, когда они лгут или искажают истину, как может быть ответственен автономный бот? У него нет репутации или активов, которые он мог бы потерять, поэтому остановить его невозможно.

Гораздо проще изобразить народную поддержку, чем на самом деле создать ее[337]. Когда избиратели и даже государства не могут провести различие между реальным и поддельным выражением мнения, невозможным становится то, что Юрген Хабермас называет «формированием демократической воли». Как доказывает постоянно растущее число эмпирических исследований негативных последствий «высказываний» ботов, в слишком многих сценариях их выступления представляют собой не столько речь, сколько антиречь, то есть хорошо рассчитанную попытку подорвать разумные обсуждения и ввести в заблуждение ничего не подозревающих людей[338]. Для восстановления доверия общества к демократическим процессам государства должны потребовать безотлагательного раскрытия данных, используемых для порождения алгоритмической речи, применяемых алгоритмов, а также таргетирования этой речи. Четвертый новый закон робототехники (предусматривающий атрибуцию ИИ его изобретателем или контролером) требует подобной прозрачности. Фирмы, которые подпадут под это требование, могут утверждать, что их алгоритмы слишком сложны, чтобы их раскрыть. В таком случае власти должны иметь возможность запретить таргетирование и сбор соответствующей информации, поскольку защита свободы слова должна иметь некоторое опознаваемое отношение к человеческому интеллекту. Без такого правила постоянно пополняемая армия ботов грозит заглушить речь реальных людей[339].

Кроме того, власти должны рассмотреть запрет определенных типов манипуляций. В британском Кодексе рекламы на радио и телевидении говорится, что «аудиовизуальные коммерческие передачи не должны применять техники, незаметные для сознания»[340]. В нормах американской Федеральной торговой комиссии прямо указывается на запрет вводящих в заблуждение рекламных объявлений, а также неверных или отсутствующих сведений о спонсорстве. Также государствам будет необходимо разработать более конкретные законы, управляющие все более автоматизируемой публичной сферой. В Калифорнии недавно потребовали, чтобы цифровые боты идентифицировали себя в социальных сетях[341]. Еще один предложенный закон должен «запретить оператору сайта социальной сети совершать сделки по продаже рекламы с программным аккаунтом или пользователем, выполняющим автоматическую задачу, либо с аккаунтом, который не верифицирован оператором в качестве контролируемого реальным человеком»[342]. Это сильные и конкретные законы, которые должны гарантировать то, что критически важные форумы человеческой коммуникации и взаимодействия не будут заглушаться постчеловеческим роем спама, пропаганды и отвлечения.

Как бы ни были привлекательны говорящие роботы, которых рисует научная фантастика, никто не должен романтизировать манипуляционную речь ботов. Логическим завершением laissez-faire в автоматизированной публичной сфере становится вечное сражение за внимание пользователей, которое ведут армии роботов, причем наиболее вероятным победителем станет фирма с наибольшими финансовыми ресурсами. Они смогут микротарге-тировать население любыми «работающими» материалами, чтобы мобилизовать его (и не важно, будет ли это истина, полуправда или ложь, цель которой – манипуляция), раскалывая публичную сферу на миллион персонализированных приватных сфер. Это очень далеко от победы классических ценностей свободы слова (то есть автономии и демократического самоуправления); на самом деле это, скорее, предвестье растворения в сфабрикованном консенсусе фантомной публики. Нераскрытые боты подделывают базовую репутационную валюту, которую люди зарабатывают благодаря своей телесности, поскольку боты неприкрыто нарушают второй новый закон робототехники.

Лучший телефонный робот

Проблема подделки вскоре может перейти из цифрового мира в реальный. Когда в 2018 г. был представлен Google Assistant, он поразил аудиторию, особенно когда гендиректор Сандар Пичаи продемонстрировал Duplex, искусственный интеллект, задача которого – назначать встречи. «Мы хотим наладить связи между пользователями и фирмами», – объяснил Пичаи. «60 % небольших фирм не имеют системы онлайн-букинга», а многие клиенты не любят звонить[343]. Пока он выступал, на экране отображалась команда: «Назначь мне встречу с парикмахером во вторник утром между io и 12 часами». В ответ на эту команду Duplex тут же сделал звонок в салон и пообщался

Перейти на страницу:
Вы автор?
Жалоба
Все книги на сайте размещаются его пользователями. Приносим свои глубочайшие извинения, если Ваша книга была опубликована без Вашего на то согласия.
Напишите нам, и мы в срочном порядке примем меры.
Комментарии / Отзывы
    Ничего не найдено.