Будущее разума - читать онлайн книгу. Автор: Митио Каку cтр.№ 75

читать книги онлайн бесплатно
 
 

Онлайн книга - Будущее разума | Автор книги - Митио Каку

Cтраница 75
читать онлайн книги бесплатно

В свою очередь, это может инициировать новые этические дебаты на тему других прав роботов. Могут ли роботы владеть имуществом? Что произойдет, если робот случайно нанесет человеку вред? Можно ли подать на робота в суд или наказать его? Кто отвечает за робота в суде? Может ли робот владеть другим роботом? Это обсуждение повлечет за собой еще один спорный вопрос: нужно ли снабжать роботов этическим чувством?

Этичные роботы

Поначалу сама мысль об этичных роботах кажется пустой тратой времени и усилий. Однако вопрос становится насущным, если подумать о том, что роботы будут принимать решения по вопросам жизни и смерти. Они будут физически сильны и способны спасти жизнь человека в критической ситуации, поэтому им неизбежно придется принимать мгновенные решения о том, кого следует спасать первым.

Представим, что происходит землетрясение и в стремительно рушащемся здании заперта группа детей. Как должен робот распределить свою энергию? Должен ли он спасти как можно больше детей? Или ему следует спасать самых маленьких? Или самых беззащитных? Если обломки здания окажутся слишком крупными, робот, пытаясь их разобрать, может повредить свои электронные схемы. Так что роботу придется решать и еще один этический вопрос: как взвесить на одних весах число спасенных детей и степень повреждения его собственной электроники?

Без надлежащей программы робот может просто остановиться, ожидая, когда человек за него примет решение, теряя при этом драгоценное время. Так что кому-то придется заранее заложить в программу робота все необходимые данные и критерии, чтобы в нужный момент робот автоматически «принял» верное решение.

Решение этических проблем придется записывать в компьютерную программу заранее, еще при создании робота, поскольку не существует математических законов, которые позволили бы оценить спасение группы детей. В программе робота должен присутствовать длинный список самых разных вещей, ранжированных по важности. Создание такого списка — сложная и очень кропотливая работа. Даже у человека иногда на усвоение подобных этических уроков уходит целая жизнь, а робот, чтобы безопасно войти в общество, должен усвоить их практически одномоментно, еще до выхода с завода.

Только человек способен справиться с этическими проблемами, да и нас они иногда ставят в тупик. Возникает вопрос: кто будет принимать решения? Кто решит, в каком порядке робот должен спасать людей?

Вопрос о том, как в конечном итоге станут приниматься подобные решения, будет, по всей видимости, разрешен при помощи одновременно закона и рынка. Нам придется принять законы, чтобы по крайней мере вопрос о том, в каком порядке по важности следует спасать людей в критической ситуации, решался законодательно. Кроме того, возникнут тысячи более тонких этических вопросов. Их, вероятно, придется решать посредством рынка и здравого смысла.

Если вы работаете в охранной фирме, обеспечивающей безопасность важных персон, то вам придется объяснить роботу, в каком именно точном порядке ему следует спасать людей в различных ситуациях; при этом вы, вероятно, будете отталкиваться от необходимости, с одной стороны, выполнить контракт, а с другой — удержаться при этом в рамках бюджета.

Что произойдет, если преступник купит робота и захочет, чтобы тот совершил преступление? Возникает вопрос: должен ли робот иметь возможность не подчиниться хозяину, если тот попросит его нарушить закон? Из предыдущего примера мы видели, что роботы должны быть запрограммированы на понимание закона и принятие этических решений. Так что если робот решит, что его просят нарушить закон, то ему должно быть позволено не подчиниться хозяину.

Возникает также этическая дилемма в связи с роботами, отражающими взгляды своих хозяев, которые могут сильно различаться по моральным и социальным нормам. Сегодняшние «культурные войны» в обществе только усилятся, если появятся роботы, разделяющие взгляды и верования хозяев. В определенном смысле этот конфликт неизбежен. Роботы — механическое продолжение мыслей и желаний своих создателей, и когда они станут достаточно сложными, чтобы принимать моральные решения, они будут это делать.

Общество может столкнуться с неочевидными сегодня и неожиданными проблемами, когда роботы начнут демонстрировать поведение, бросающее вызов нашим ценностям и целям. Роботы, принадлежащие юнцам, расходящимся с шумного рок-концерта, могут вступить в конфликт с роботами, принадлежащими пожилым жителям тихого района. Первые, может быть, будут запрограммированы на громкое воспроизведение модной музыки, а вторые — на сохранение тишины. Роботы, принадлежащие набожным людям, могут не сойтись во мнениях с роботами, принадлежащими атеистам. Роботы разных национальностей и культур могут быть сконструированы так, чтобы отражать соответствующие культурные стереотипы, и это понравится далеко не всем (в том числе и людям, не говоря уже о роботах.)

Итак, как нужно программировать роботов, чтобы избежать подобных конфликтов?

Это невозможно. Попросту говоря, роботы неизбежно будут отражать предпочтения и предрассудки своих создателей. В конце концов культурные и этические противоречия между роботами придется разрешать в судах. Никакие законы природы или науки не решат за нас моральные вопросы, так что в итоге для разрешения подобных социальных конфликтов придется писать соответствующие законы. Роботы не смогут решить моральные дилеммы, созданные людьми. Более того, появление роботов может их обострить.

Но если роботы смогут принимать этические и юридические решения, то в состоянии ли они чувствовать и понимать чувства других? Если роботу удастся кого-нибудь спасти, обрадуется ли он этому? Или сможет ли робот хотя бы осознать, что такое красный цвет? Холодный анализ ситуации и решение о том, кого нужно спасать, — это одно, а понимание и сочувствие — совсем другое. Так могут ли роботы чувствовать?

Понимание или чувство?

На протяжении столетий выдвигалось множество теорий о том, может ли машина думать и чувствовать. Философия, которой придерживаюсь лично я, называется «конструктивизм» и состоит в том, что вместо бесконечного обсуждения этого вопроса (а оно бессмысленно) нам следует направить свою энергию на создание реального автомата и посмотреть, как далеко нам удастся зайти. В противном случае мы увязнем в бесконечных философских дебатах, разрешить которые окончательно невозможно. Преимущества науки в том, что, когда все сказано и сделано, можно провести эксперимент и найти решение проблемы.

Таким образом, чтобы понять, смогут ли роботы думать, следует, вероятно, сделать робота и посмотреть, что получится. Некоторые исследователи, однако, заранее уверены, что машины никогда не научатся думать, как люди. Самый сильный их аргумент заключается в том, что, хотя робот способен манипулировать фактами быстрее, чем человек, он не «понимает», что делает. Он может работать с ощущениями (такими как цвет или звук) лучше человека, но не может по-настоящему «чувствовать» или «воспринимать» суть этих ощущений.

Так, философ Дэвид Чалмерс разделил проблемы искусственного интеллекта на две категории — проблемы простые и сложные. Проблемы простые — это создание машин, способных имитировать все больше человеческих способностей, таких как игра в шахматы, сложение чисел, распознавание определенных закономерностей и т. п. Проблемы сложные включают, в частности, создание машин, способных понимать чувства и субъективные ощущения, так называемые «квалиа».

Вернуться к просмотру книги Перейти к Оглавлению Перейти к Примечанию