• Когнитивная наука

    ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ VS HUMANS

    Противостояние машин человеку – идея многих писателей-фантастов. По их словам, наступит тот день, когда искусственный интеллект осознает себя как сверхчеловеческий и постарается вытеснить своих создателей с планеты как несовершенный и бесполезный биологический вид.

    Read more

Душа машины

Душа машины

В первой части статьи мы затронули обширную тему о том, какими возможностями обладает сейчас искусственный интеллект.  Роботы делают хирургические операции, сочиняют новые рецепты блюд, пишут фантастические романы и берутся за кисти и краски. Возможно, что когда-нибудь машины cмогут обладать разумом, который будет подобен человеческому?

А что, если они уже им обладают?

 Данный вопрос звучит фантастически и почти невероятно, но давайте вспомним, что само понятие сознания до сих пор не имеет под собой четкого научного объяснения. Так почему бы не допустить, что некие приборы или частицы также могут быть сознательны? И тогда каждый раз, перезагружая компьютер или программу, мы убиваем живое существо?

Siri — это разработка центра искусственного интеллекта SRI, виртуальный помощник, а точнее - интерактивная система управления iPhone. Она поможет вам найти нужный ресторан, отправит письмо, расскажет о погоде или установит будильник. Сири может общаться на многих языках мира и «подстраиваться» под ваши личные предпочтения. С каждой новой версией ее возможности увеличиваются. Но кто серьезно будет рассматривать Сири как настоящего собеседника? Ведь ее умение поддерживать разговор – это всего лишь операция символами.

Джон Роджерс Серл, американский философ и профессор университета Беркли, привел блестящую аналогию действиям машины в своем знаменитом эксперименте, получившем название «Китайская комната». Суть его такова: если сидящему в комнате человеку («компьютер») дают набор неизвестных для него китайских иероглифов («задача») и инструкции по их техническому сочетанию на доступном языке («программа»), то человек будет выполнять сортировку иероглифов, согласно данным механическим правилам, без вникания в семантику. И это будет производить такое впечатление, словно человек говорит по-китайски.

 Как говорит об этом сам Серл: «Я пытался доказать, что мышление не сводится к программам, потому что программа лишь манипулирует формальными символами — а, как нам известно, самого по себе манипулирования символами недостаточно, чтобы гарантировать наличие смысла».

Фото: John Searl on TED talk

С противоположной стороны, сторонники теории Сильного искусственного интеллекта уверены, что, начиная с определенного уровня развития, у программы может появиться сознание.

Один из ярких представителей сторонников данной теории - известный нейроучёный из Висконсинского университета Джулио Тонони. Он известен прежде всего как создатель Integrated Information Theory (интеграционной информационной теории), и такого занятного понятия, как Phi. Фи – это и есть интегрированная информация, то есть ее количество, создаваемое комплексом элементов. Если сумма информации всей системы больше, чем сумма ее отдельных элементов, значит можно говорить о потенциальном возникновении сознания.

Согласно этой теории, сознание может быть этапным, то есть присутствовать в различных видах, и не обязательно быть биологическим.

В своей книге Тонони пишет:

«Какую бы информацию вы ни осознавали, она полностью представляется вашему разуму и не может быть разделена. В основе этого единства сознания лежит множество причинно-следственных взаимодействий между соответствующими частями вашего мозга. Если участки мозга начинают разъединяться, как это происходит при глубоком сне или в анестезии, сознание исчезает и может вообще прекратиться».

Кристоф Кох, специалист из Allen Institute for Brain Science, написал в соавторстве с Тонони ряд научных работ, а также посетил в 2016 году со специальным визитом Далай-Ламу, с которым обсуждал как последние достижения науки в исследовании сознания, так и многовековые буддистские принципы.

Вот цитата из книги Кристофа Коха Consciousness: Confessions of a Romantic Reductionist:

«Весь космос наполнен чувством. Мы окружены и погружены в сознание; Это воздух, которым мы дышим, почва, на которую мы ступаем, бактерии, которые колонизируют наш кишечник, и мозг, который позволяет нам думать».

Так ученые подошли к более сложной версии панпсихизма, то есть утверждения, что сознание находится не только внутри человека, но и сама Вселенная сознательна.

Фото: Кристоф Кох и Далай-Лама

С критикой данной теории выступает уже известный нам Джон Серл. В своем ответе, озаглавленном «Может ли фотодиод быть сознательным?» он так отзывается о принципах, которые озвучили Кох и Тонони: «По их мнению, каждый протон и нейтрон сознательны. Но интегрированная информация во всех этих случаях так же важна для наблюдателя, как и информация в фотодиоде. Ни в протонах и нейтронах, ни в моем персональном компьютере, ни в моем смартфоне нет никакой абсолютной информации. Вся информация - в глазах смотрящего».

Тем не менее, персональные помощники в том же смартфоне и компьютере будут становиться все умнее. И это не только Siri от Apple, но и Alexa от Amazon, Contana от Microsoft и Bixby от Samsung.

Еще в 1942 году в небольшом рассказе под названием «Рунароид» Айзек Азимов, известный американский писатель-фантаст, написал первое в мире руководство по «роботобезопасности». В нем всего три закона: первый, что робот не может причинить вреда человеку. Второй, что робот должен слушаться человека, если это не противоречит первому закону. И, наконец, в третьем законе сказано, что робот не может причинить вред самому себе, если это не опровергается первыми двумя законами.

Казалось, чего проще – слушаться человека и не причинять вред ни себе, ни другим людям?

Однако, проблема выбора искусственным интеллектом верной стратегии может быть не столь однозначной.

Человекоподобный робот Нао был создан французской компанией Aldebaran Robotics. Одно его практических применений – интеграция в социальную среду детей иммигрантов, не говорящих на языке новой страны. Обучающие интерактивные способности Нао были применены в Англии, Германии и Нидерландах. Евросоюз выделил на эту программу 3 млн. евро.

 

Фото: Simon Grübler for Chemnitz Techology University

Именно Нао был перепрограммирован американскими учеными для изучения этических моментов поведения искусственного интеллекта. Руководители эксперимента, Сьюзан Андерсон и ее супруг Майкл Андерсон пишут в своей статье «Robot be Good»: «Сегодня роботы разрабатываются для помощи людям. Но оказывается, что они сталкиваются с множеством этических затруднений, которые проявляют границы искусственного интеллекта, даже в самых обычных ситуациях». Например, при простой на первый взгляд задаче -  проконтролировать прием лекарства пациентом, Нао оказывается в ситуации сложного выбора. Как поступить, если пациент отказывается от лекарства? Позволяя пропустить дозу, он может причинить вред человеку. Но настаивать на том, чтобы лекарство было принято -  значит посягать на автономность его личности.

Не секрет, что для нужд армии широко тестируются беспилотные автономные средства, способные поражать вражеские цели. Их также «учат» наносить меньший вред – анализировать наличие поблизости людей, а также гражданских объектов, таких как больницы или жилые здания.

Для регуляции допустимых норм поведения, Британский институт стандартов выпустил первый в мире официальный кодекс этических норм для роботов.

В него были включены следующие пункты:

1. Ответственность за роботов.

В этом пункте говорится, что ответственность за робота несут люди, а не другие роботы. Убивать или причинять вред людям запрещено.

 2. Эмоциональный контакт.

Существуют роботы, работающие с детьми и помогающие больным людям. Составители кодекса предостерегают от излишнего эмоционального контакта с ними и советуют предпочитать контроль доверию.

3. Непредсказуемость машин.

В этом пункте речь идет об алгоритмах глубокого обучения: искусственный интеллект сам приходит к решению проблемы, перебирая многие практические подходы и тактики. При этом конечный результат может значительно отличаться от результата, найденного с помощью человеческой логики.

4. Против расизма и гомофобии среди роботов.

Роботы не должны демонстрировать нетерпимость и дискриминацию к людям, а должны относиться к ним одинаково беспристрастно, несмотря на цвет кожи, пол, особенности поведения. Тем более роботы не должны демонстрировать собственное превосходство над людьми.

5. И, наконец, зависимость от роботов.

Очевидны опасения составителей кодекса, что в какой-то момент роботы могут начать совершать неожиданные поступки, мошенничать, лгать и использовать других для собственной выгоды.

Конечно, это первая попытка выпустить официальный свод печатных правил по безопасности эксплуатации искусственного интеллекта. И данное практическое руководство только намечает круг проблем, с которыми человек столкнется в процессе роботизации собственной жизни.

Так что очевидно, что мы с вами вступаем в новую эпоху, эпоху искусственного интеллекта. Регулировать отношения с которым будут специальные институты и специальные законы, который возможно будет обладать сознанием, и даже сможет научиться лгать, то есть будет cовершенно похож на нас, но только окажется более совершенным во всех своих проявлениях, и кто знает, какой может оказаться на самом деле она, душа этой машины. 

Login

Помощь для Joomla.