ИИ-2041. Десять образов нашего будущего - Кай-фу Ли Страница 13

Тут можно читать бесплатно ИИ-2041. Десять образов нашего будущего - Кай-фу Ли. Жанр: Разная литература / Зарубежная образовательная литература. Так же Вы можете читать полную версию (весь текст) онлайн без регистрации и SMS на сайте «WorldBooks (МирКниг)» или прочесть краткое содержание, предисловие (аннотацию), описание и ознакомиться с отзывами (комментариями) о произведении.
ИИ-2041. Десять образов нашего будущего - Кай-фу Ли

ИИ-2041. Десять образов нашего будущего - Кай-фу Ли краткое содержание

Прочтите описание перед тем, как прочитать онлайн книгу «ИИ-2041. Десять образов нашего будущего - Кай-фу Ли» бесплатно полную версию:

Искусственный интеллект станет определяющим событием XXI века. В течение двух десятилетий все аспекты повседневной жизни станут неузнаваемыми. ИИ приведет к беспрецедентному богатству, симбиоз человека и машины приведет к революции в медицине и образовании и создаст совершенно новые формы общения и развлечений. Однако, освобождая нас от рутинной работы, ИИ также бросит вызов организационным принципам нашего экономического и социального порядка. ИИ принесет новые риски в виде автономного оружия и неоднозначных интеллектуальных технологий. ИИ находится в переломном моменте, и людям необходимо узнать как его положительные черты ИИ, так и экзистенциальные опасности, которые он может принести.
В этой провокационной, совершенно оригинальной работе Кай-Фу Ли, бывший президент Google China и автор книги «Сверхдержавы искусственного интеллекта», объединяется со знаменитым романистом Чэнь Цюфанем, чтобы представить наш мир в 2041 году и то, как он будет формироваться с помощью ИИ. В десяти захватывающих рассказах они познакомят читателей с возможными новыми реалиями 2041 года:
• В Сан-Франциско появляется индустрия «перераспределения рабочих мест», поскольку ИИ с глубоким обучением вызывает массовое перемещение рабочих мест;
• В Токио меломан погружается в захватывающую форму поклонения знаменитостям, основанную на виртуальной и смешанной реальности;
• В Мумбаи девочка-подросток бунтует, когда сжатие больших данных ИИ мешает романтике;
• В Сеуле виртуальные компаньоны с совершенными навыками обработки естественного языка (НЛП) предлагают близнецам-сиротам новые способы общения;
• В Мюнхене ученый-мошенник использует квантовые вычисления, компьютерное зрение и другие технологии искусственного интеллекта в заговоре мести, который ставит под угрозу весь мир
Глядя на не столь отдаленный горизонт, AI 2041 предлагает срочное понимание нашего коллективного будущего, напоминая читателям, что, в конечном счете, человечество остается автором своей судьбы.

ИИ-2041. Десять образов нашего будущего - Кай-фу Ли читать онлайн бесплатно

ИИ-2041. Десять образов нашего будущего - Кай-фу Ли - читать книгу онлайн бесплатно, автор Кай-фу Ли

этой корпоративной цели и ничуть не заботится о благополучии пользователей.

В нашей истории «Золотой слон» Ganesh Insurance обещает потенциальным клиентам минимизировать страховые взносы, что в значительной степени коррелирует с минимизацией выплат по медицинскому страхованию и, следовательно, с улучшением здоровья застрахованных. На первый взгляд это подразумевает совпадение корпоративных целей с целями пользователей.

Однако в рассказе ИИ этой страховой компании определяет, что отношения между Наяной и Сахеджем с большой степенью вероятности приведут к увеличению страхового взноса семьи Наяны, и потому изо всех сил старается помешать их зарождающейся любви.

ИИ Ganesh Insurance предобучен находить причинно-следственные связи. Он может обнаружить повышенный риск заболеваний, связанных с курением, и, следовательно, будет пытаться отвратить человека от этой вредной привычки; и это хорошо. Но, руководствуясь узконаправленным анализом данных, ИИ может заставить приложение увеличить страховые взносы из-за потенциального романтического союза. Таким образом, умозаключения ИИ приводят к действиям, которые разрывают души людей на части и усугубляют неравенство.

Как же решается проблема? Один из первейших подходов — обучить ИИ сложным целевым функциям, таким как снижение страховых взносов с учетом фактора справедливости. Например, Тристан Харрис предлагает использовать в качестве метрики не просто «проведенное в интернете время», а «время, проведенное с толком».

Эти две цели можно объединить в одну сложную целевую функцию. Еще одно решение предложено экспертом в области ИИ Стюартом Расселом: гарантировать полезность каждой целевой функции путем поиска способа включить людей в цикл дизайна таких функций.

Например, можно попытаться построить целевые функции для «большего человеческого блага», такого, например, как счастье, и привлечь людей, чтобы определять, какой смысл они вкладывают в это понятие. (Эту идею мы исследуем подробнее в главе 9 «Остров счастья».)

Однако очевидно: эти идеи требуют дополнительных исследований в области сложных целевых функций и поиска способов количественной оценки таких расплывчатых концепций, как «с толком проведенное время», «справедливость» или «счастье». Более того, реализация этих идей изначально предполагает, что компании станут зарабатывать меньше денег.

Так как же нам стимулировать интернет-гигантов поступать правильно, невзирая на неизбежные финансовые потери? Один из способов — на законодательном уровне ввести нормы, предусматривающие наказание для нарушителей.

Другой путь — поощрять позитивное поведение как часть корпоративной социальной ответственности, например с помощью принципов ESG (environmental, social and corporate governance — экологическое, социальное и корпоративное управление). Сегодня принципы ESG уже набирают обороты в некоторых бизнес-кругах, и не исключено, что ответственный ИИ может стать частью будущей структуры ESG.

А еще можно привлечь третьи стороны и отвести им роль сторожевых псов: создавать информационные панели для основных показателей деятельности компаний и отслеживать такие показатели, как количество генерируемых «фейковых новостей» или «судебных исков с обвинениями в дискриминации», чтобы заставить их включать пропользовательские метрики.

И наконец, возможно, самым сложным, но и самым эффективным решением станет обеспечение стопроцентного совпадения интереса владельца ИИ с интересами каждого пользователя (подробнее об этом утопическом варианте рассказывается в главе 9).

У глубокого обучения есть еще один потенциальный недостаток — предвзятость. Поскольку ИИ основывает свои решения исключительно на данных и оптимизации целевой функции, они часто оказываются более справедливыми, чем решения, принимаемые людьми (на которых чрезмерно влияют всевозможные традиции и предрассудки).

Но ИИ тоже может быть предвзятым. Например, если использованных для обучения ИИ данных недостаточно, и, как следствие, они неверно отражают реальную картину, или данных достаточно, но расовая или гендерная демография в них искажена сторонними факторами. В результате отдел управления персоналом однажды обнаружит, что алгоритмы компании предвзяты к женщинам — потому что в обучающих данных было мало женщин.

Данные могут быть предвзятыми еще и потому, что их собирали в обществе с предрассудками. Так, чат-бот Tay компании Microsoft и алгоритм обработки естественного языка GPT-3 компании OpenAI печально прославились неуместными комментариями о меньшинствах.

Недавние исследования показали, что ИИ способен с высокой степенью точности определять сексуальную ориентацию людей на основе микровыражений лиц. Но такие способности чреваты риском дискриминации. В рассказе «Золотой слон» примерно так и получилось с Сахеджем — ИИ путем расчетов определил его как далита. Иначе говоря, Сахеджа не назвали «неприкасаемым», но поскольку его данные и характеристики коррелировали с принадлежностью парня к этой касте, Наяну забрасывали предупреждениями. Система ИИ таким образом пыталась разлучить молодых людей.

Это, конечно, непреднамеренная несправедливость, но последствия ее могут быть чрезвычайно серьезными. Если же общество применит некорректные алгоритмы к таким сферам, как принудительная госпитализация или уголовное судопроизводство, ставки окажутся еще выше.

Решение проблем справедливости и предвзятости при использовании ИИ потребует немалых усилий. Некоторые шаги в этом направлении совершенно очевидны и понятны.

Во-первых, компании, использующие ИИ, обязаны информировать общественность, где и с какой целью используются такие системы.

Во-вторых, инженеров по разработке ИИ следует готовить на основе набора стандартных принципов вроде адаптированной клятвы Гиппократа, которую дают врачи; эти специалисты должны понимать, что их профессия подразумевает элемент этики в продуктах, серьезно меняющих жизнь людей, и, следовательно, они должны поклясться защищать права пользователей.

В-третьих, необходимо ввести тщательное тестирование всех ИИ-продуктов; оно должно быть встроено в инструменты обучения ИИ и заблаговременно предупреждать о моделях, обученных на данных с несправедливым демографическим охватом. В противном случае использование ИИ-продукта должно быть запрещено.

В-четвертых, можно принять новые законы, требующие аудита ИИ. Скажем, если на компанию поступает определенное количество жалоб, ей следует обязать пройти такой аудит (на предмет справедливости, раскрытия информации и защиты конфиденциальности) — точно так же, как фирма подпадает под налоговую проверку, если ее бухгалтерская отчетность выглядит подозрительно.

И, наконец, последняя проблема глубокого обучения — объяснения и обоснования. Люди всегда могут растолковать, почему они приняли то или иное решение — оно основано на в высшей степени конкретном опыте и правилах.

Но решения глубокого обучения базируются на сложных уравнениях с тысячами функций и миллионами параметров. «Резоном» для глубокого обучения, по сути, является многомерное уравнение, полученное на основе больших объемов данных. И вряд ли возможно как следует объяснить его людям — оно слишком сложно. Тем не менее многие ключевые решения ИИ должны сопровождаться объяснением причин — либо по закону, либо потому, что этого ожидают пользователи.

Поэтому в настоящее время проводится множество исследований, направленных на увеличение «прозрачности» ИИ, — либо путем резюмирования его сложной логики, либо посредством введения новых ИИ-алгоритмов, которые изначально проще интерпретировать.

Описанные выше недостатки и ограничения глубокого обучения привели к тому, что в обществе появилось серьезное недоверие к ИИ. Но ведь все новые технологии имели свои недостатки. История показывает, что со временем многие ранние ошибки удается исправить, а технологии — усовершенствовать.

Возьмем для примера предохранитель в любой

Перейти на страницу:
Вы автор?
Жалоба
Все книги на сайте размещаются его пользователями. Приносим свои глубочайшие извинения, если Ваша книга была опубликована без Вашего на то согласия.
Напишите нам, и мы в срочном порядке примем меры.
Комментарии / Отзывы
    Ничего не найдено.