Роботы, искусственный «интеллект» и мы. Как нам жить вместе?

Роботы, искусственный «интеллект» и мы.
Как нам жить вместе? Часть 3

Опубликовано в номере:
PDF версия
Первая часть данной статьи [1] была посвящена краткому обзору истории создания машин с искусственным интеллектом (ИИ) и нашему взгляду на их возможное развитие в будущем. Во второй части [2] рассматривались вопросы, решив которые, мы могли бы приблизить машины и ИИ к общему с нами восприятию мира и друг друга. Но что нас может ожидать в итоге? Не совершим ли мы трагическую ошибку, ступив на стезю создания чего-то «по нашему образу и подобию» (не столько внешне, сколько внутренне)? Не станет ли это что-то неподвластным нам, не начнет ли развиваться по своему усмотрению или, что еще страшнее, не попадет ли оно не в те руки? Об этом пойдет речь в последней, третьей части статьи.

Первая часть статьи.

Вторая часть статьи.

«Искусственный интеллект становится движущим фактором технического прогресса в нашем все более цифровом мире, управляемом данными. Причина — в том, что нас окружают продукты человеческого интеллекта, говорим мы о культуре или о потребительских товарах». Такими словами анонсировали 136-страничный отчет о состоянии дел в области ИИ два серийных инвестора в сфере ИИ — Натан Бенайч (Nathan Benaich) и Ян Хогарт (Ian Hogarth, профессор UCL Institute for Innovation and Public Purpose) [3]. Отчет структурированно описывает прогресс в сфере разработок ИИ, и особое внимание уделено ключевым событиям последних двенадцати месяцев. Приведенные данные показывают, что внедрение ИИ идет все более нарастающими темпами.

Большая часть опасений, выражаемых людьми по поводу ИИ, связана с тем, что нас заменит превосходящая форма интеллекта, способная мыслить так, как мы не можем себе представить, и побеждать нас практически в каждой роли, которую мы можем ей дать. Например, одним из отличительных факторов, дающих преимущество ИИ, является параллельное мышление [5] (рис. 1).

Подбор оптимального алгоритма для нужной ориентации предмета в системе принятия решения коллаборативным роботом компании Festo

Рис. 1. Подбор оптимального алгоритма для нужной ориентации предмета в системе принятия решения коллаборативным роботом компании Festo:
а) массивное параллельное мышление, осуществляющее подбор;
б) результат симуляции и реального исполнения алгоритма

Однако Джейсон Миллер (Jason Miller) считает (и автор статьи с ним согласен), что реальная опасность заключается не только в этом [9]. Мы, отдавая часть своих ранее обыденных возможностей и функций ИИ, понижаем наш собственный интеллект и уникальную способность к эмпатии, потому что гораздо более узкая искусственная версия «разума» способна выполнять некоторые действия более эффективным способом.

Посмотрим на широко известную картину Н. П. Богданова-Бельского (1895 г.) «Устный счет. В народной школе С. А. Рачинского» (рис. 2).

Н. П. Богданов-Бельский. «Устный счет. В народной школе С. А. Рачинского» (1895 г.)

Рис. 2. Н. П. Богданов-Бельский. «Устный счет. В народной школе С. А. Рачинского» (1895 г.)

Многие ли из нас сейчас осилят этот школьный пример устного счета без инженерного калькулятора? Для желающих испытать себя — ответ на рисунке. Более того, многие уже не высчитают без калькулятора и цену 250 г сыра. А ведь еще недавно мы так и считали — «в уме». Не стоит и говорить о том хаосе и ужасе, который возникнет, если автоматы «откажутся» управлять транспортным движением, поставкой воды, энергии, логистикой, транспортными средствами, связью. Люди все это воспринимают как само собой разумеющееся, как неотъемлемую часть нашей жизни. Туземцы в джунглях или северные народы и часть нас, например сельские жители, которые полагаются больше на себя, конечно, выживут, но большинству из нас, особенно горожанам, избалованным благами цивилизации, придется трудно. За подтверждением этому можно обратиться даже не к Голливуду, а к недавнему блэкауту (массовому сбою в подаче электроэнергии) в Великобритании [15].

Если мы не осознаем все риски ИИ, то организации, которые планируют широко использовать его для получения конкурентных преимуществ, могут в итоге сузить область наших с вами возможностей. Мы можем стать просто приставкой к машине — и это если ИИ не решит, что мы мешаем ему работать, и не предпримет попытку вывести более совершенных людей. Если снова обратиться к фильмам, то такая идея показана в интересном только с этой точки зрения фильме «Дитя робота» («I Am Mother», 2019).

Связь человека и машины неоднозначна и в психологическом плане. В студенческие годы автор статьи как-то работал в паре с «роботом», который изготавливал сердечники ленточных трансформаторов. По факту, роботом был автор: восемь часов с перерывом на обед заправлял робота, вставлял в него оправки и обрезал начисто приваренный точечной сваркой (это делал робот) конец ленты. Ощущение было жуткое и угнетающее (было бы лучше, если б он мог хотя бы анекдоты рассказывать), аналогичное автор испытывал только в армии, маршируя по плацу.

Возникает вполне закономерный вопрос: что нас ждет дальше? Если мы найдем условные ключи и технологии доступа к «облаку» сознания, о чем автор этой статьи говорил как о потенциальной возможности в [2], и дадим аналогичные возможности уже «сознанию» ИИ (ведь облачные технологии мы освоили), то к чему это в итоге приведет? Мы будем мыслить «со своей колокольни», мы не создадим для ИИ его собственный мир, даже условный. В качестве наглядного примера того, как могут сосуществовать разноплановые по содержанию персонажей реальности, можно обратиться к забавному фильму «Кто подставил кролика Роджера» («Who Framed Roger Rabbit», 1988), хотя он и не затрагивает проблемы ИИ.

Создавая ИИ по своему образу и подобию, мы можем направить разработанный нами ИИ, так называемый General AI, только по одному известному нам пути эволюции. Уместно заметить, что мы просто иного не знаем. Возможно, рядом с нами уже есть иные цивилизации, и мы их не видим, а они, что тоже вероятно, не видят нас. Мы представляем цивилизацию с машинами, электричеством. Но в Древнем Египте Интернета не было, а он успешно просуществовал тысячи лет. Если копнуть глубже, то можно вспомнить еще более древние цивилизации и культуры. Но останется ли ИИ тем, кого мы создали, когда «вкусит плоды с древа познания»? Здесь перед нами уже гамлетовское «To be, or not to be, that is the question».

Где гарантия, что ИИ в итоге не «додумается» до собственной философии? Не задаст себе не только известные нам вопросы, но еще и какие-то свои? Не получим ли мы в итоге (это просто аналогия, не нацеленная кого-то оскорбить) нечто подобное «Велик Джон Маккарти, и Алан Тьюринг пророк его»? Или ситуацию, когда, перефразируя известное определение: «Верхи (пока это мы с вами) не смогут управлять по-новому, а низы (машины, которым мы дали искусственное сознание) не захотят жить по-старому», как это случилось в сериале «Люди» («Humans», 2015).

Джейсон Миллер, давший автору статьи доступ к своим материалам [9], работает в сети LinkedIn, участником которой автор является уже многие годы. Эта сеть принадлежит компании Microsoft, а она, как известно, давно работает над самыми разными приложениями ИИ. Авторитетные эксперты (если использовать кальку с английского — «лидеры мысли») от Microsoft не только занимаются исследованиями и практическими разработками в области ИИ, но и уделяют много времени анализу и обсуждению того, какими должны быть этические принципы ее использования и какое влияние она оказывает на общество. Все они говорят о необходимости встраивания в системы ИИ самоограничивающих факторов — своеобразных интеллектуальных предохранителей [4]. В родном автору статьи украинском языке для этого есть прекрасный термин «запобіжник» — это не в полном смысле предохранитель, а нечто превентивное, то, что предотвращает нежелательное развитие ситуации или действия, а не реагирует уже постфактум. Использование таких превентивных мер чрезвычайно важно на всех уровнях и во всех сферах применения ИИ.

Проблемы «думающих» машин были осознаны и подняты намного раньше того времени, когда появился сам термин «искусственный интеллект». Так, американский писатель-фантаст и философ Айзек Азимов (Isaac Asimov) в своем рассказе «Хоровод» (написан в 1941 г., а опубликован в марте 1942 г. в журнале «Astounding Science Fiction») сформулировал три известных базовых закона робототехники, упомянутых в начале статьи, и они до сих пор не утратили своей актуальности. В нашем случае они применимы к ИИ:

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
  2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
И. Маск: «Помяните мое слово, ИИ — гораздо опаснее, чем ядерное оружие»

Рис. 3. И. Маск: «Помяните мое слово, ИИ — гораздо опаснее, чем ядерное оружие»

Что касается настоящего времени, то специалисты в области ИИ, осознающие риски и озабоченные возможными негативными последствиями бесконтрольного использования ИИ, пошли в этом направлении еще дальше. На Асиломарской конференции в США эксперты Future of Life Institute представили новый свод уточненных законов ИИ [5]. В нем раскрываются моральные вопросы и цели применения ИИ, а также приведен общий порядок его внедрения. Новый кодекс был одобрен 877 разработчиками в области ИИ. Среди его сторонников оказались Илон Маск (Elon Musk) и Стивен Хокинг (Stephen Hawking), не раз резко заявлявшие о рисках неконтролируемого развития ИИ. В 2016 г. глава SpaceX предупредил, что ИИ — более опасный, чем ядерные боеголовки (рис. 3) [11].

С аналогичной идеей выступила специалист в области ИИ, бывший разработчик Google Лаура Нолан (Laura Nolan), которую сейчас цитируют ведущие мировые СМИ. Оружие с ИИ сможет уничтожить города мира за считанные секунды. Под таким оружием подразумевается система, способная принимать решения без человека, пояснила Нолан. По ее словам, если в одном районе будет находиться много подобных систем, то существует вероятность «внезапной войны», поскольку такие системы среагируют друг на друга почти моментально. «В худшем случае внезапная война может означать разрушение всего города за считанные секунды», — заявила Нолан [17]. Она покинула компанию Google в знак протеста против того, чтобы работать над проектом дрона с ИИ, который мог использоваться в негуманных целях. Нолан является участником кампании организации «Остановить роботов-убийц». Данная группа настоятельно призывает страны подписать договор, запрещающий использование автономного оружия, которое не требует контроля со стороны человека. Но, как с горечью признает Нолан, их призывы не находят поддержки среди некоторых стран, включая США и Россию (рис. 4).

Демонстрация в рамках кампании «Остановить роботов-убийц», организованная немецкой неправительственной организацией Facing Finance в Берлине.

Рис. 4. Демонстрация в рамках кампании «Остановить роботов-убийц», организованная немецкой неправительственной организацией Facing Finance в Берлине.
Фото: Wolfgang Kumm — AFP/Getty Image

Так, например, недавно президент Российской Федерации Владимир Путин высказал свое мнение по этому поводу таким образом: «Тот, кто сможет создать монополию в сфере искусственного интеллекта, станет властелином мира». Он заявил об этом в ходе совещания по развитию технологий в области ИИ [10], которое транслировало ТАСС, и призвал кратно увеличить финансирование научных исследований в этой области.

Если не принять соответствующие ограничительные меры, то мы не сможем гарантировать, что развитый ИИ попадет в правильные руки и что он будет использоваться с благими намерениями.

Новый кодекс минимизации рисков применения ИИ от Future of Life Institute гласит:

  • Системы ИИ должны быть безопасными, защищенными и проверяемыми в тех сферах, где это применимо и выполнимо. В случае неполадок и сбоев должна быть возможность выяснить их причину.
  • Любое участие автономной системы в принятии важных решений должно проверяться и одобряться человеком.
  • Создатели систем ИИ — посредники, ответственные за моральные вопросы применения ИИ. Они должны сформировать представление о возможности и границах использования ИИ.
  • Автономные системы ИИ должны быть спроектированы таким образом, чтобы разделять идеалы человеческого достоинства, прав, свобод и культурного многообразия.
  • Экономическая выгода и польза, которую приносит ИИ, должны быть широко распределены на благо всего человечества.
  • Необходимо избегать использования ИИ в гонке вооружений и в смертельном автономном оружии.

Что касается долгосрочной перспективы, то:

  • Необходимо избегать категоричных предположений относительно верхних пределов возможностей ИИ.
  • Развитый ИИ может повлечь глубокие изменения в истории жизни на Земле и должен управляться с соизмеримыми вниманием и усилиями.
  • Системы ИИ, запрограммированные на постоянное самосовершенствование и самовоспроизведение, что приводит к их быстро растущему количеству или качеству, должны быть объектом строгого контроля.
  • Суперинтеллект должен быть спроектирован в соответствии с широко распространенными идеалами этики и служить выгоде всего человечества, а не отдельного государства или организации.

В связи с этим уместно снова обратиться к Илону Маску, который сказал: «Самая большая проблема, которую я вижу, общаясь с так называемыми экспертами в области ИИ, заключается в том, что они думают, что знают больше, чем есть на самом деле, и они думают, что они умнее, чем на самом деле. Это общая тенденция многих умных людей. Они определяют себя уровнем своего интеллекта, и им не нравится идея, что машина может быть намного умнее их, поэтому они просто игнорируют такую идею, что в корне ошибочно» [12]. По мнению автора статьи — и крайне опасно.

 

Социальные аспекты роботизации и внедрения ИИ

Есть еще одна тесно связанная с рассматриваемой темой проблема, о которой хотелось бы упомянуть. По прогнозам аналитиков, в ближайшие двадцать лет машины могут занять или радикально изменить около половины существующих в мире рабочих мест. Об этом сообщает Bloomberg со ссылкой на Организацию экономического сотрудничества и развития (Organisation for Economic Co-operation and Development, OECD). С одной стороны, благодаря совершенствованию технологий появляются новые рынки и некоторые работники смогут извлечь из этого выгоду. Однако молодые, низкоквалифицированные, а также работающие неполный рабочий день специалисты окажутся уязвимыми перед автоматизацией. Кроме того, в зоне риска находятся женщины, поскольку они с большей вероятностью будут неполностью заняты и их труд будет менее оплачиваемым. Человечество ожидает катастрофа, в случае если люди не смогут адаптироваться и найти свою нишу при повсеместном внедрении роботов. Рано или поздно, но людям придется смириться с тем, что их рабочие места займут роботы, так что нам нужно научиться существовать в симбиозе с продвинутым ИИ (рис. 5) [13].

Искусственный интеллект и автоматизация командуют «На выход!»

Рис. 5. Искусственный интеллект и автоматизация командуют «На выход!» [13]

Исходя из сказанного OECD предупредила развитые страны о будущем сокращении численности среднего класса и потере рабочих мест из-за ИИ, что, в свою очередь, приведет к социальной напряженности. Однако хочется надеяться, что мы не станем действовать как луддиты, только в ходе уже четвертой промышленной революции [6].

В этом вопросе слово за политиками, а не за инженерами, поскольку, по словам Клауса Шваба (Klaus Schwab), основателя и председателя Всемирного экономического форума: «Возможности миллиардов людей, которые связаны друг с другом мобильными устройствами с гигантской мощностью и памятью, предоставляющими доступ ко всем знаниям человечества, поистине безграничны. И эти возможности будут многократно умножаться за счет все новых прорывов в областях искусственного интеллекта, робототехники, «Интернета вещей», автономного транспорта, нанотехнологий, материаловедения и квантовых компьютеров. Искусственный интеллект уже здесь — в виде автономных машин, дронов, виртуальных ассистентов, программ-переводчиков». Таким образом, надо понимать, что слом технологической парадигмы несет в себе не только новые перспективы, но и новые социальные вызовы, связанные прежде всего с трансформацией рынка труда.

 

ИИ как бизнес, инновации и НИР

Сегодня ИИ — один из самых горячих трендов в высокотехнологическом бизнесе (рис. 6). Все больше компаний — как стартапов, так и крупных корпораций — интегрируют технологии ИИ в свои бизнес-процессы. По данным аналитического отчета AI International Report 2018 [7], глобальный рынок продуктов на основе ИИ только растет, и его среднегодовые темпы роста до 2024 г. прогнозируются на уровне 37%, при этом общий объем рынка должен достичь примерно $190 млрд.

Высокотехнологичное роботизированное производство

Рис. 6. Высокотехнологичное роботизированное производство

Упомянутый в начале статьи отчет [3] (краткое содержание на русском языке в виде тезисов доступно в [14]) также подтверждает такую тенденцию, показывая резкий рост инвестиций в эту область. По данным отчета, объем инвестиций в сферу ИИ в 2018 г. составил $27 млрд, из них 55% — это американские вложения. Крупнейшие мировые ИТ-гиганты ежегодно покупают десятки стартапов в сфере ИИ, тратя на каждую покупку сотни миллионов долларов.

По результатам отчета, список самых продуктивных организаций в части научных исследований в этой области возглавляет Google. Далее идут Массачусетский технологический институт, Стэнфордский университет, Университет Карнеги-Меллона, Калифорнийский университет в Беркли. Количество зачисленных в университеты студентов, которых привлекают специальности в области ИИ, каждый год возрастает в несколько раз. А особенно быстрый рост исследований наблюдается в Китае.

Прогнозы аналитиков на ближайшее будущее ИИ пока такие [3]:

  • Мир накроет волна стартапов, основанных на передовых исследованиях в сфере Natural Language Processing (понимание человеческого языка ИИ). Все эти стартапы в ближайший год могут привлечь более $100 млн инвестиций.
  • Технология автономного вождения пока останется на стадии НИОКР. В 2019 г. ни один автопроизводитель не обеспечит автономное вождение автомобилей на дистанции более 15 млн миль, что эквивалентно дистанции, которую проезжает одна тысяча водителей в Калифорнии за год.
  • Компании, не входящие в список двух тысяч крупнейших публичных компаний мира по версии журнала Forbes, также усилят свои политики безопасности в отношении конфиденциальности данных пользователей при использовании технологий машинного обучения.
  • Университеты разработают программы обучения бакалавров в сфере ИИ, чтобы заполнить пробел в специалистах этой отрасли.
  • Компании Google и IBM совершат прорыв в сфере аппаратного обеспечения квантовых вычислений. В результате появится как минимум пять новых стартапов, которые попытаются создать технологию квантового машинного обучения.
  • По мере того как системы ИИ становятся более мощными, тема управления ИИ приобретает все большее значение. Поэтому как минимум один крупный разработчик ИИ внесет существенные изменения в модель управления ИИ.

Что касается более близких нам государств, то на момент написания статьи украинские аутсорс-компании Softserve и N-iX при участии тысяч разработчиков создают роботизированные решения для заказчиков в Европе, Великобритании и США. Softserve, в частности, является партнером по ИИ Google, Amazon, Microsoft, IBM и Apple. В России в этой сфере работают фонд «Сколково», Лаборатория искусственного интеллекта Sberbank AI и другие организации. Но по известным причинам последнего времени западные покупатели не всегда готовы доверять российским вендорам [7], так что те больше работают на внутренний рынок, где крупнейший заказчик — как всегда, «Газпром».

 

Заключение

Можно сказать, что наступают времена все более широкого применения ИИ, включая приложения, которые могут обнаруживать эмоциональные сигналы и вырабатывать ту или иную ответную «разумную» реакцию, пусть даже в ограниченном виде (например, в системах машинного зрения, как это обсуждалось в [16]). На взгляд автора статьи, путь наилучшего использования ИИ — признать его ограничения, осознать то, что это не более чем развитый автомат, которому далеко до интеллекта в нашем понимании, и не пытаться эту грань преодолеть. Эти мысли основаны на том, что нашим чувственным, эмоциональным и сложным миром нельзя управлять только с помощью логики и наблюдения. Пока все, что касается ИИ, вписывается в концепцию так называемого ограниченного или узкого ИИ (Narrow AI) [8]. В данном контексте это программа или система, которая способна выполнять набор конкретных задач без прямого участия человека. Это понятие существенно отличается от ИИ общего назначения (General AI), т. е. того ИИ, который мы привыкли видеть в фильмах и сериалах, обладающего человеческими автономными возможностями и разумом в той или иной степени, а часто еще и заключенного в корпус антропоморфного (человекоподобного) вида, как в упомянутом не раз фильме «Ex Machina».

В свете описанных вопросов и вытекающих из них проблем главное — строго придерживаться выполнения этических законов робототехники, поставив заслон желающим стать властелинами мира. Нельзя отдать эту технологию на откуп безответственным правителям и военным, поскольку, как в известном анекдоте, даже кровать, попав к ним в руки, в итоге превращается в пулемет.

Ни динамит, ни самолеты, ни ядерное оружие, как это известно, не остановили войн, хотя на это искренне надеялись их изобретатели. В случае ИИ общего назначения, без предохранителей, машины или, скорее всего, программы могут начать воевать друг с другом (какой-то психопат нажмет кнопку, или машинам что-то покажется), а мы будем просто расходным материалом, путающимся у них под ногами (рис. 7). Если кто забыл, то мы уже были буквально в шаге от такого развития событий. Какие последствия могла иметь роковая ошибка, когда советская система предупреждения о ракетном нападении 26 сентября 1983 г. выдала ложный сигнал о запуске сразу пяти (!) МБР «Минитмен» с территории США и мир находился на пороге глобальной ядерной войны? Что если бы за пультом управления не было подполковника Станислава Петрова, который усомнился в таком абсурдном сценарии, как запуск всего нескольких ракет, взял на себя ответственность и отказался от передачи команды и запуска ответных советских ракет? Это мы боимся смерти нашего бренного тела, а ИИ чего бояться, он — программа.

Использование ИИ в военных целях может привести к страшным последствиям

Рис. 7. Использование ИИ в военных целях может привести к страшным последствиям

Из-за присущей нам лени, являющейся, с чем согласен автор статьи, двигателем прогресса, мы стоим на пути создания довольно-таки опасной думающей машины. Поскольку развитие цивилизации остановить нельзя, в этом случае она просто гибнет, наш единственный выход — смотреть в будущее с оптимизмом. Однако при этом помнить: в жизни всякое бывает, и очень часто, и это не из серии чеховского «Волга впадает в Каспийское море. Как бы чего не вышло». Чтобы это «всякое» нас не настигло и не вышло в очередной раз боком, как это не раз уже в нашей новейшей истории бывало, важно не повторять ошибок прошлого и не натворить в столь деликатной сфере, как ИИ, еще и новых.

Автор выражает свою благодарность Джейсону Миллеру (Jason Miller, США, компания Microsoft) за доступ к его материалам по теме ИИ и разрешение их использовать и Борису Коропову (Boris Koropov, Израиль) — за критические замечания и рецензирование данной статьи.

Литература
  1. Рентюк В. Роботы, искусственный «интеллект» и мы. Как нам жить вместе? Часть 1 // Control Engineering Россия. 2019. № 3.
  2. Рентюк В. Роботы, искусственный «интеллект» и мы. Как нам жить вместе? Часть 2 // Control Engineering Россия. 2019. № 4.
  3. Benaich N., Hogarth I. State of AI Report 2019. Artificial intelligence (AI) is a multidisciplinary field of science whose goal is to create intelligent machines.
  4. Lili C. Why You Shouldn’t Be Afraid of Artificial Intelligence.
  5. Ученые представили новый кодекс ИИ. Robo Hunter. 2019.
  6. Четвертая промышленная революция: «Интернет вещей», циркулярная экономика и блокчейн.
  7. Коновалова Е. Инфраструктура для ИИ: как российские компании могут найти новую нишу.
  8. Джокела Б. Слияние искусственного интеллекта и «Интернета вещей» // Control Engineering Россия. № 2.
  9. Miller J. Can a machine have empathy?
  10. Путин назвал условие для становления властелином мира.
  11. Elon Musk: “Mark my words — AI is far more dangerous than nukes”.
  12. Elon Musk: We Need Universal Income Because Robots Will Steal All the Jobs.
  13. Ankan D. The Uncanny Valley: How Artificial Intelligence, Automation Have Eroded Human Interaction.
  14. Некрасов В. Как прогрессирует искусственный интеллект: отчет о последних достижениях // Экономическая правда. 15 июля 2019.
  15. У Великій Британії — блекаут, «наче в апокаліптичному фільмі»: виразні фото та відео.
  16. Хардин В. Искусственный интеллект и его влияние на машинное зрение // Control Engineering Россия. 2017. № 5.
  17. Killer robots will ‘destroy cities in seconds’ warns ex-Google engineer.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *