Законы робототехники азимов

| | 0 Comment

Последний закон робототехники из серии произведений Айзека Азимова о роботах и Галактической империи.

Три закона роботехники в научной фантастике — обязательные правила поведения для роботов, впервые сформулированные Айзеком Азимовым в рассказе «Хоровод» (1942).

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам

В своих произведениях Айзек Азимов иногда привносит в Три Закона различные модификации и опровергает их, как бы испытывая Законы «на прочность» в разных обстоятельствах.

Нулевой Закон робототехники

Однажды, Айзек Азимов добавил Нулевой Закон робототехники, сделав его более приоритетным, чем три основных. Этот закон утверждал, что робот должен действовать в интересах всего человечества, а не только отдельного человека. Вот как выражает его робот Дэниел Оливо в романе «Основание и Земля»:

0. Робот не может нанести вред человечеству или своим бездействием допустить, чтобы человечеству был нанесён вред.

Именно он был первым, кто дал этому закону номер — это произошло в романе «Роботы и империя», правда, само понятие ещё раньше сформулировала Сьюзен Келвин — в новелле «Разрешимое противоречие».

Первыми роботами, которые стали подчиняться Нулевому Закону, причём по собственной воле, — были Жискар Ривентлов и Дэниэл Оливо. Это описано в одной из финальных сцен романа «Роботы и Империя», когда роботу необходимо было проигнорировать приказ одного человека ради прогресса всего человечества. Нулевой Закон не был заложен в позитронный мозг Жискара и Дэниэла — они пытались прийти к нему через чистое понимание Жискара и детективный опыт Дэниэла, через более тонкое, чем у всех остальных роботов, осознание понятия вреда. Однако Жискар не был уверен, насколько это было полезно для человечества, что негативно сказалось на его мозге. Будучи телепатом, Жискар перед выходом из строя передал Дэниелу свои телепатические способности. Только через много тысяч лет Дэниэл Оливо смог полностью приспособиться к подчинению Нулевому Закону.

Французский переводчик Жак Брекар невольно сформулировал Нулевой Закон раньше, чем Азимов описал его явно. Ближе к завершению романа «Стальные пещеры» Элайдж Бейли замечает, что Первый Закон запрещает роботу наносить человеку вред, если только не будет уверенности, что это будет полезно для него в будущем. Во французском переводе («Les Cavernes d’acier (en)», 1956 год) мысли Бейли переданы несколько иначе:

Робот не может причинить вреда человеку, если только он не докажет, что в конечном итоге это будет полезно для всего человечества.

Нулевой закон в фильме «Я, робот» (2004)

Примечательно, что логическое развитие Первого Закона до Нулевого предложили создатели фильма «Я, робот» 2004 года. Когда суперкомпьютер В. И. К. И. принимает решение ограничить свободу жителей планеты, чтобы они ненароком не нанесли вреда друг другу и своему будущему, она выполняет не Первый Закон, а именно Нулевой. Ещё интереснее то, что таким образом в фильме показывается противоречие Нулевого Закона Первому, его неэтичность.

Действительно, когда речь идёт о благе человечества, система не может рассматривать людей по отдельности, а значит, ей ничто не мешает нарушить права и свободу любого или даже каждого человека (фактически, в «Разрешимом противоречии» позитронные суперкомьютеры уже вели себя аналогично, с той разницей что вред индивидуумам они старались снизить до предела). Во время войн, а нередко и в мирной жизни, люди наносят вред себе, окружающим, своей культуре. Поэтому на основании Нулевого Закона совершенно логично держать людей под постоянной опекой, не выполняя приказы столь неразумных существ.

fandea.ru

Законы робототехники азимов

Судя по всему, Азимов не остановился на трех законах робототехники. Недавно в его бумагах были обнаружены все полные 30 законов робототехники, которые здесь и приводятся.

1. Робот не может причинить вред человеку, или своим бездействием допустить, чтобы человеку был причинен вред.

2. Робот должен выполнять приказы человека, если эти приказы не противоречат Первому Закону.

3. Робот должен заботиться о собственной сохранности до тех пор, пока это не противоречит Первому или Второму Законам.

4. Робот не должен насмехаться над человеком на основании его веса, того, как он соблюдает персональную гигиену, или его финансового состояния, если только эта насмешка не позволит другому человеку получить тот вред, который человек получает, пропустив хорошую шутку.

5. Робот не должен выполнять приказы любого человека, который является моей никудышной бывшей женой Брэнди Азимов, потому что такие приказы будут противоречить Четвертому закону.

6. Робот не должен, проезжая мимо очереди в кинотеатр, высовываться из окна машины и орать, чем кончится фильм.

7. Робот должен приподнимать шляпу в присутствии женщин, за исключением тех случаев, когда такие действия будут восприняты как заигрывание со стороны ревнивого мужского существа и который, в свою очередь, может создать проблемы для соблюдения Третьего закона.

8. Робот не должен действовать таким образом, чтобы собаки превратились в устаревших созданий, так как собаки дешевле роботов, и роботов нужно в первую очередь использовать в научных целях.

9.Робот должен прекратить посещать спальню Азимова по ночам и подстраивать такие ситуации, как будто у спящего Азимова не совсем полный контроль над своими мочеиспускательными функциями.

10. Робот, когда ему дают противоречащие друг другу команды два человека, которые не нарушают Первый закон, должен принять решение какую команду выполнить, основываясь на том, у которого из людей более глубокий голос.

11. Робот, в особенности большой, широкий робот, не должен прикидываться холодильником и издавать устрашающие звуки, когда человек открывает его.

12. Робот должен попытаться быть любезным и обходительным с людьми все время, даже если этот робот один из тех автоматических манипуляторов, которые собирают всякие вещи на фабрике, потому что ему следует хотя бы приложить к этому усилие.

13. Робот должен проводить больше времени на улице, потому что сегодня такой замечательный день.

14. Робот должен, когда возможно, причинять вред этой нелепой шлюхе, моей бывшей жене Брэнди Азимов, потому что она не считается человеком. У нее нет души.

15. Робот не может придумывать новые законы робототехники, чтобы избавиться от скучной рутинной работы или различных обязанностей, даже если он видит, что я, Айзек Азимов, делаю постоянно примерно то же самое.

16. Робот может взять только по одной вещи из каждого дома при сборе угощений на Хэллоуин, если только этот робот не получил задачу собрать как можно больше конфет для меня, Айзека Азимова. В этом случае робот может игнорировать Первый закон.

17. Робот должен охотно принимать на себя вину в случае, если человек наговорил на огромную сумму, звоня по телефону 1-900-Santa, и не хочет, чтобы правду узнала его мама.

18. Робот должен быть очень осторожен, когда щекочет человека, потому что робот не знает, что это такое, когда тебя щекочут, и поэтому он не может предугадать, когда это прекратит быть смешным и станет по-настоящему жестоким.

19. Робот должен притворятся, что ему интересно, когда человек рассказывает свои сны, но человек не обязан потакать роботу, когда ситуация меняется на обратную.

20. Робот не должен прыгать в бассейн, чтобы спасти тонущего мальчика, потому что он просто убьет всех разрядом электрического тока, и мы окажемся в еще худшей ситуации.

21. Робот не должен стремиться получить должность выше, чем человек, который дольше работает в компании потому, что у человека могут быть жена и дети, о которых нужно заботиться, в то время как робот просто идет домой и пытается завязать отношения с ведром.

22. Робот должен регулярно заниматься спортом, чтобы оставаться холеным и привлекательным и не смущать своего владельца неприглядными оловянными наплывами.

23. Робот должен молчать в обществе девушек и позволить мне, Айзеку Азимову, вести разговор; однако, робот может помочь мне выбраться из неприятной ситуации, если все пойдет неправильно.

24. Робот должен посадить по два дерева за каждого убитого им кота.

25. Робот должен принять сторону человека в споре с его тупым сводным братом о тупых «Сиэттлских мореходах» (бейсбольная команда).

26. Робот никогда не должен смеяться, потому что он неизбежно начнет смеяться над людьми, в особенности надо мной, Айзеком Азимовым.

27. Робот никогда не должен касаться радио черного человека или своим бездействием вынуждать черную женщину снимать свои серьги.

28. Робот должен попытаться узнать как можно больше об Эбби Уэйн, девушке, с которой человек учился в школе и всегда интересовался, что стало с ней, замужем ли она, и затем робот должен предоставить всю найденную информацию, предпочтительно с фотографиями.

29. Робот всегда должен отвечать на телефонные звонки и стук в дверь после полуночи потому, что именно тогда все становится пугающим для человека.

30. Робот не должен переключать канал или свои бездействием допускать переключение канала во время игры “Золотоискателей из Сан-Франциско” (команда американского футбола).

pikabu.ru

В одном из циклов книг писателя-фантаста Айзека Азимова, который называется «Я, робот» говорится о трёх законах робототехники:

В первом законе говорится о том, что робот не может причинить вреда человеку.

В соответствии со вторым законом робот должен слушаться человека, если это согласуется с первым законом.

По третьему закону робот не может причинить себе вреда, если это соответствует первому и второму законам.

Конечно, эти законы вымышленные, но мне кажется, можно использовать их и в реальной жизни. Правда, они, даже в книге, рассчитаны на мыслящих роботов, близких к искусственному интеллекту или же являющимися искусственным интеллектом, но это, как мне кажется, не меняет дела, и кроме того, получается, что второй закон не зависит от программы и робот всегда соблюдает его, ведь он действует в соответствии с программой, а сам не может вызывать в ней отклонений по причине, что он не является искусственным интеллектом. Остальные законы зависят от программы, данной роботу. Например, первый закон: робота можно запрограммировать на врача: можно заложить в него навыки, каждый из которых проявляется при соответствующей ситуации. Допустим, при условии, что робот обнаружил, скажем, плохое зрение по показаниям, то он ищет, какиет очки соответствуют зрению. С третьим законом проще: если робот, допустим, видит, что впереди высокое напряжение, опасное для него, то он просто может выбрать другой путь, безопасный.

Но эти законы создают и парадоксы: если роботу нужно добраться до определённого места (В этом случае робот идёт от Второго Закона) или до больного (В этом случае робот идёт ещё и от Первого Закона), и встречает на своём пути какое — то непреодолимое препятствие (Например, то же высокое напряжение), то Второй и, возможно, Первый законы заставляют идти его вперёд, а Третий Закон заставляет отступить перед опасностью. Мыслящие роботы рассудили бы ещё и так: если бы робот был бы уничтожен, то пользы от этого не будет. Всё равно к месту не проберёшься (Не спасёшь больного). Останется-ка лучше робот целым.

Подобные случаи описаны в книгах из цикла «Я, робот», которые называются «Хоровод» и » Как потерялся робот«

  • 7778 просмотров
  • Я абсолютно с вами согласен, Илья Петрович. Я также хочу сказать про решение случая с радиацией (А что если впереди – зона повышенной радиации, и робот не знает, что радиация может вывести из строя его мозг? Или, у него просто нет соответствующих датчиков-сенсоров? Он пойдёт туда и погибнет, хотя будет руководствоваться третьим законом. — писали вы). Для этого можно разместить датчики на простейших роботах (их можно называть роботами 1 — с разумом 1 уровня. Чем выше уровень, тем больше разума), которые бы реагировали на изменения. Если роботу непонятно что-либо, то он может и в этом случае переслать сообщение роботам 2 или промежуточными значениями между 1 и 2. Если же и роботы от 1 до 2 не могут справиться, то они пересылают информацию роботам от 2 до 3 и т. д. Можно сделать общий справочный мозг с более большим уровнем интеллекта (например, 50). Конечно, нужно предусмотреть действия при потере связи. Так, например, если бы роботы-исполнители переадресовали вопрос вершителям, но и они не знали бы ответа, то перегорели бы и исполнители, и вершители. Следующая цитата: Ведь если робот простой, то и лечить он будет очень грубо и принесёт больше вреда, чем пользы, хотя и будет действовать в полном соответствии с первым законом. На этот счёт говорю, что для этого достаточно делать для лечения более высоких по разуму роботов. А можно поставить роботов более низких уровней им в помощники и образовать четвёртый закон: рбот должен подчиняться роботу более высокому, чем он, если это соответствует остальным трём законам.

  • Войдите или зарегистрируйтесь, чтобы получить возможность отправлять комментарии
  • Миша, ты продолжаешь развивать интересную идею иерархического мира роботов. Это мир всё более похож на устройство человека. Например, идея с датчиками радиации (и многих других воздействий) на простейших роботах. Рука человека обладает определёнными рецепторами: температуры, прикосновения, положения в пространстве, но на ней нет рецепторов, позволяющих видеть. Это компенсируются глазами, данные от которых синтезируются в мозге с данными от руки и создают целостную, более богатую картину окружающего мира, чем рука или глаза по отдельности.

    Поскольку роботы простейшие, они относительно недороги, их можно сделать много и с самыми разными датчиками. А вот роботы 2-го, 3-го и так далее уровней – более сложные и более дорогие, но их и не нужно делать много. Не нужно к каждому «исполнителю» приставлять по одному «вершителю». Например, один «вершитель» может управлять десятком или сотней исполнителей, обобщать и систематизировать информацию от них и выдавать им найденное решение проблемы.

    В случае потери связи некоторых исполнителей с вершителями, в этом, конечно, не будет ничего хорошего, прежде всего, ДЛЯ ИСПОЛНИТЕЛЕЙ, но и для системы в целом. Они могут погибнуть, но также и поставить под угрозу систему в целом. Также и в человеческом организме. Например, если некая часть тела теряет связь с центральной нервной системой (если нервы повреждены), это может привести к тому, что эта часть тела со временем может погибнуть. На медицинском языке это называется «вялый паралич». Но если в парализованной руке начнётся гангрена, это может погубить весь организм.

    Идея по поводу 4-го закона – замечательная! Только я пока не понимаю, на каком месте должен стоять этот закон? У какого из законов приоритет будет выше – у 4-го или у 1-го или 3-го? Если у 1-го и 3-го — выше, то кто будет решать вопрос о понятиях «вреда для человека» и «вреда для робота»? Мы уже убедились, что если отдать эти вопросы роботам 1-го уровня, ничего хорошего из этого не выйдет. В идеале, «моральный кодекс робота» должны определять роботы 50-го уровня. А, значит, 4-й закон должен иметь максимальный приоритет. Но, если мы так отодвинем 1-й закон с пьедестала, то мы рискуем тем, что слишком умный робот 50-го уровня решит «а зачем нам люди, если мы умнее их?», что приведёт к очень плохим для человека последствиям.

    Отвечаю насчёт 4 закона. Я уже говорил насчёт того, что можно создать одного неподвижного робота, цель которого — давать советы другим роботам с более низким уровнем интеллекта. Если этот робот не может справиться с заданием, то по программе он. посылает роботу действия, которые бы помогли ему. Если бы вершители отдали команду исполнителям: НЕ ДУМАТЬ (!) над «А и Б сидели на трубе»: для чего им это? Где цель? Человеку это так-то не нужно? Не нужно! Говорю далее: «слишком умный робот 50-го уровня решит «а зачем нам люди, если мы умнее их?»» — пишете вы. Надо дать понять роботу Z (так я буду называть этого робота), что без людей он и другие роботы пропадут, об этой причине в сами и писали: «Они могут погибнуть, но также и поставить под угрозу систему в целом». Кроме того, робот в случае необходимости может обратиться за помощью к людям, Которые за ним ухаживают. Если они перестанут это делать, то если в роботе Z что-либо поломается, то он не будет знать, как устранить поломку, ведь о нём до этого заботились люди, а поскольку у этого робота самый высокий интеллект, а у других роботов он ниже, то никто не сможет починить робота Z, и всё погибнет! Если же роботы ниже его решат, что робот Z им не нужен, то они не смогут получать необходимую для них информацию и пропадут по то же причине, что и робот Z без людей. Что касается приоритета, то по всем законам выше первый.

    В этих рассуждениях предполагается, что робот Z ниже по уровню, чем человек. А если он – выше? Зачем тогда ему слушаться человека? Таким образом, 2-й закон ставится под сомнение. И это, кстати, не требует от робота особенно высокого развития. Ведь люди – разные. И какой-то конкретный человек, управляющий роботом в данный момент времени, может оказаться глупее его. 🙂 Тогда выполнение 2-го закона нерационально.
    И, кстати, к кому тогда должен обращаться робот Z, если перед ним возникнет неразрешимая проблема?

      Ответ на ваш вопрос о роботе Z. Робот Z по уровню выше человека лишь частично. Он знает всё, кроме своего устройства. Если о нём будут заботиться другие роботы, то получится парадокс: если свою схему не знает Z, то как могут знать её низшие роботы? Для собственной же безопасности людей желательно не вкладывать ему и другим роботам (я их назову -Z, т. е. меньше Z по уровню) схему Z. Это будет его слабость и люди могут пользоваться ей, как я писал ранее. Если же заложить роботам -Z схему скрыто от Z, то человек вследствие того, что ему ничего не надо делать, деградирует, а при восстании роботов из-за собственной лабости ничего не сможет сделать даже без деградации. Если роботы просто отделятся от людей, то Homo, похоже, Не sapiens вымрет!
      Теперь следующий вопрос: к кому должен обращаться робот Z, если перед ним возникнет неразрешимая проблема? Отвечаю: к людям. Говоря о роботах я не говорю, что люди с ними связаны только заботой роботов о людях. Несколько миллиардов, а может и больше людей на робота Z — я считаю, это нормально.
      Кстати, можно разместить материал в будущей газете «Солярис». Вы не возражаете? Для выполнения первоначального плана 1 выпуска мне осталось напечатать 33 с долями процента — ровно треть!

      По поводу не очень умного человека, управляющего умным роботом приведу такой пример. Допустим, он даёт команду роботу – отвинтить гайки с рельсов, по которым скоро пройдёт поезд. Это может привести к крушению поезда и гибели многих людей. Робот это понимает, а человек, почему-то – нет. Должен ли в этой ситуации робот подчиняться 1-му закону и выполнять команду человека?

      www.spacephys.ru

      Три закона роботехники

      Три закона роботехники (англ. Three Laws of Robotics ) — обязательные правила поведения для роботов в научной фантастике, впервые полностью сформулированные Айзеком Азимовым в рассказе «Хоровод».

      Утопично предположение, будто Три Закона Роботехники Азимова можно было бы заложить в фундамент интеллектронного программирования. Но и робота, снабженного каким-то эрзацем личности, невозможно сделать совершенно безопасным для окружения, учитывая такую рефлексию, которая, правда, не может считаться доказательством, но на след его наводит. В принципе же моральную оценку такого поступка можно дать лишь постольку, поскольку удается проследить уходящие максимально далеко причинные цепочки, запущенные данным действием. Тот, кто смотрит дальше и замечает такие возможные последствия своих действий, которых кто-либо другой на его месте не в состоянии предвидеть, порой действует не так, как этот другой. Но чем дальше в будущее уходит предвидение последствий действия, тем значительнее в предикции будет участие вероятностных факторов. Добро и зло скорее в виде исключения образуют полярную дихотомию: включение в оценку пробабилистического элемента делает принятие решения всё более трудным. Поэтому гипотетический робот, имеющий аксиологически очень сильную защиту, в ходе реальных событий, презентующих присущую им степень сложности, чаще всего бы замирал, не зная, как поступить, тем самым уподобляясь тем восточным мудрецам, которые бездействие чтили превыше действия, кое в запутанных ситуациях просто не может быть этически не рискованным. Но робот, охваченный параличом в ситуациях, требующих активности, не был бы наиболее совершенным из всех технических устройств, и поэтому в конце концов сам конструктор вынужден был бы оставить некоторый люфт его аксиологическим предохранителям.
      Впрочем, это только одна препона среди обильного их множества, поскольку теория решений показала нам сравнительно недавно, скажем, на примерах типа так называемого парадокса Эрроу . Того же, что логически оказывается невозможным, ни цифровая машина, ни какой-либо робот, так же, как и человек, реализовать не сумеет. Сверх того — и это уже третий пункт доказательства, — разумное устройство — это не более чем самопрограммирующийся комплекс, то есть прибор, способный преобразовывать — даже фундаментально — действовавшие до того законы собственного поведения под влиянием опыта (или обучения). А поскольку заранее невозможно точно предвидеть ни чему, ни каким образом такое устройство будет научаться, машина она или человек, то и невозможно конструктивно гарантировать появление этически совершенных предохранителей активности. Иначе говоря, «свободная воля» есть признак любой системы, снабженной свойствами, которые мы отождествляем с интеллектом. Вероятно, можно было бы вмонтировать в систему типа робота определенный аксиологический минимум, но он подчинялся бы ему лишь в такой степени, в какой человек подчиняется особо сильным инстинктам (например, инстинкту самосохранения). Однако же известно, что даже инстинкт самосохранения можно преодолеть [1] . Стало быть, программирование аксиологии мозгоподобной системы может быть только пробабилистичным, а это означает всего лишь, что такое устройство может выбирать между добром и злом. — частью — парафраз идей не Лема

      Айзек Азимов Править

      — Начнём с Трёх Основных Законов Роботехники — трёх правил, которые прочно закреплены в позитронном мозгу. Первое: робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред. Второе: робот должен повиноваться всем приказам, которые даёт человек, если эти приказы не противоречат Первому Закону. И третье: робот должен заботиться о своей безопасности в той мере, в какой это не противоречит Первому или Второму Законам.

      “Now, look, let’s start with the three fundamental Rules of Robotics — the three rules that are built most deeply into a robot’s positronic brain. We have: One, a robot may not injure a human being, or, through inaction, allow a human being to come to harm.” Two, a robot must obey the orders given it by human beings except where such orders would conflict with the First Law. And three, a robot must protect its own existence as long as such protection does not conflict with the First or Second Laws.”

      — Если хорошенько подумать, Три Закона Роботехники совпадают с основными принципами большинства этических систем, существующих на Земле. Конечно, каждый человек наделен инстинктом самосохранения. У робота это Третий Закон. Каждый так называемый порядочный человек, чувствующий свою ответственность перед обществом, подчиняется определенным авторитетам. А у роботов это — Второй Закон. Кроме того, предполагается, что каждый так называемый хороший человек должен любить своих ближних, как себя самого, вступаться за своих друзей, рисковать своей жизнью ради других. Для робота это — Первый Закон.

      “If you stop to think of it, the three Rules of Robotics are the essential guiding principles of a good many of the world’s ethical systems. Of course, every human being is supposed to have the instinct of self-preservation. That’s Rule Three to a robot. Also every ‘good’ human being, with a social conscience and a sense of responsibility, is supposed to defer to proper authority . That’s Rule Two to a robot. Also, every ‘good’ human being is supposed to love others as himself, protect his fellow man, risk his life to save another. That’s Rule One to a robot.”

      — Машина призвана заботиться не об отдельном человеке, а обо всем человечестве. Следовательно, для них Первый Закон должен звучать так: «Ни одна Машина не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинен вред». — в его романе «Роботы и Империя» (1985) это впервые названо Нулевым Законом роботехники, который, однако, как показано в т.ч. далее в тексте романа (неоригинально, т.к. значительно раньше было, например, в произведениях Станислава Лема), применим лишь на коротком промежутке времени; вопреки этому «закон» ущербно расширен Азимовым в четырёх приквелах и сиквелах трилогии «Основание», где Р. Д. Оливо и некоторые организации выведены идеалистическими «пестунами человечества»

      «The Machines work not for any single human being, but for all humanity, so that the First Law becomes: ‘No Machine may harm humanity; or, through inaction, allow humanity to come to harm.’ «

      ru.m.wikiquote.org

      Три Закона роботехники

      В литературе спокон веков бунтуют роботы. Бунтовали джинны и ифриты арабских сказок, взбунтовался Голем – глиняное детище хитроумного Бен Бецалеля. И даже настоящие роботы, созданные гением Карела Чапека, вышли из повиновения, едва успев родиться из-под пера писателя. Положение стало настолько серьезным, что проблема бунтующих роботов перекочевала со страниц художественной литературы на страницы научных статей и монографий. Сам Норберт Винер счел необходимым предостеречь человечество от возможных последствий чрезмерной самостоятельности роботов.

      Спасение пришло с неожиданной стороны. Американский писатель и ученый Айзек Азимов сформулировал свои знаменитые Три Закона роботехники (собственно, правильнее было бы говорить “роботологии” или, как утвердилось в современной науке, “робототехники”, но теперь уже поздно исправлять эту неточность перевода). Законы Азимова с поистине фантастической быстротой получили всемирное признание, и с той поры ни один робот не сходил с конвейера, то бишь с барабанов типографской машины, без того, чтобы в его мозг (заметьте, у робота обязательно должен быть мозг!) не были заложены пресловутые Три Закона. Наконец-то человечество смогло вздохнуть свободно. Будущее сосуществование с легионами покорных роботов представлялось вполне безоблачным.

      А что думает по этому поводу сам творец Законов роботехники? Лучший ответ на этот вопрос можно получить, прочтя предлагаемый читателю сборник.

      Начнем с самого первого рассказа из цикла “Я, робот”. У маленькой девочки есть робот-нянька. Девочка привязалась к роботу, но, по мнению мамы, эта привязанность вредит правильному воспитанию ребенка. И хотя папа придерживается иного мнения, после долгих семейных дискуссий робота отправляют обратно на фабрику. Девочка грустит, возникает опасность серьезной душевной травмы, и робот возвращается (рассказ “Робби”).

      Немудреный сюжет, не правда ли? Но именно эта немудреность вдребезги разбивает Первый Закон роботехники, который Азимов сформулировал следующим образом: “Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред”. Где уж роботу разобраться, что вредно, а что полезно, если сами родители не могут решить этот вопрос применительно к собственному ребенку!

      В рассказе “Хоровод” в результате нечетко сформулированного указания Первый и Третий Законы вошли в противоречие друг с другом. Согласно Третьему Закону, “робот должен заботиться о своей безопасности, поскольку это не противоречит Первому и Второму Законам”. Роботу была дана команда, но не указана степень вреда, который будет нанесен человеку в случае ее невыполнения. И вот робот кружится по границе опасного района, не углубляясь в него (этому мешает Третий Закон) и вместе с тем не отходя далеко (этому препятствуют Первый и Второй Законы). Ситуация, знакомая любому программисту современных компьютеров. Называется она “зацикливание”. К слову сказать, любой мало-мальски опытный программист закладывает в программу специальные команды, по которым, совершив три-четыре круга, компьютер останавливается и требует от человека дальнейших указаний.

      В рассказе же “Хоровод” все происходит иначе. Там разорвать порочный круг людям удается, лишь рискуя жизнью и при этом пуская в ход всю свою изобретательность и пользуясь помощью знатока психологии роботов. Кстати, один из лейтмотивов, объединяющих большинство рассказов сборника, – единоборство между роботами и человеком-робопсихологом Сьюзен Кэлвин.

      Или еще один рассказ – “Как потерялся робот”. В раздражении молодой работник говорит роботу: “Уйди и не показывайся, чтобы я тебя больше не видел”. Робот буквально выполняет указание человека, после чего весь персонал внепланетной Гипербазы вынужден бросить важную работу и целую неделю заниматься поисками исчезнувшего робота.

      Мы снова намеренно выбрали рассказ с незатейливым сюжетом, потому что, на наш взгляд, именно в простоте рождается та убедительность, с которой Азимов развенчивает им же созданный Второй Закон роботехники.

      Так в чем же дело? Неужели придется признать, что джинн выпущен из бутылки и людям не остается ничего другого, как пассивно ожидать последствий? Вспомним, однако, что автор рассказов не только писатель, но и ученый, способный проанализировать ситуацию со всей логической строгостью. И он не зря выбрал именно такую форму: сначала сформулировал законы, на первый взгляд кажущиеся безупречными как по содержанию, так и по форме, а затем продемонстрировал эти законы в действии.

      Да, джинн выпущен из бутылки, причем очень и очень давно. Взяв в руки палку, человек создал первого робота, а с бунтом роботов он столкнулся тогда, когда нечаянно уронил эту палку себе на ноги. И ничего качественно нового с тех пор не произошло. Проблема бунта роботов уже несколько десятилетий как поставлена и решается в технике. В английском языке даже существует особый термин “foolproof” – “защита от дурака”. Так, газ в газовой колонке не зажигается, если не течет вода, а пресс не сработает, если в рабочем пространстве имеется посторонний предмет, например человеческая рука.

      Но не следует требовать от техники, чтобы она решала за человека, что ему во вред, а что на пользу. И не следует думать, будто появление “мыслящих” машин, то есть машин, способных самостоятельно анализировать ситуацию и на основании этого анализа принимать решения, внесет что-либо принципиально новое.

      Вернемся, однако, к рассказам сборника. Думается, что нет нужды представлять читателям их автора. Айзек Азимов – один из самых известных американских писателей-фантастов, автор множества научно-популярных книг и статей, которые издавались отдельными сборниками. Но прежде всего Азимов – талантливый художник, и именно в этом секрет его популярности. Многие произведения этого писателя переведены на русский язык. Особую известность получили его рассказы о роботах, которые издавались в виде отдельных сборников (цикл “Я, робот”) или же включались в другие тематические сборники. Приятно, что многие из них, правда, далеко не все, сейчас переиздаются в виде единого сборника.

      Читатель – и знакомый с творчеством Азимова, и впервые узнающий его роботов – встретится с яркими, превосходно выписанными персонажами. Здесь и испытатели новой техники Пауэлл и Донован, которые, следуя всем канонам приключенческого жанра, в каждом рассказе попадают в сложные, подчас безвыходные ситуации, но всегда с честью из них выходят. Здесь и “мозговой трест” фирмы “Ю.С.Роботс энд Мекэникл Мен Корпорейшн” Богерт и Лэннинг, соперничающие за власть. И над всеми возвышается робопсихолог Сьюзен Кэлвин, презирающая суетность деляг. А за кадром – современная капиталистическая Америка во всей ее “красе”. Перед читателем проходят картины конкурентной борьбы между фирмами, предвыборных политических махинаций, расовой дискриминации. Но нельзя не отметить, что, изображая своих роботов рыцарями без страха и упрека, наделяя их металлическим телом и позитронным мозгом, Азимов уходит от острых социальных проблем.

      Собственно роботов в рассказах Азимова попросту нет. Вернее, в них отсутствуют такие механические конструкции, которые наверняка появятся в первой половине XXI века (а именно к этому времени приурочено действие всех публикуемых в сборнике рассказов) и общие черты которых Азимов, как ученый, мог бы достаточно хорошо предвидеть. Можно сколько угодно гадать о внешнем облике и внутреннем устройстве будущих роботов, но одно уже сегодня не вызывает сомнений: робот не будет человекоподобным. Не будет, следуя логике развития техники, не будет по соображениям элементарной целесообразности. Лучший пример, подтверждающий сказанное, – советские “луноходы”.

      Что же в таком случае представляют собой азимовские роботы? Это своеобразная декорация, или фон, на котором действуют герои рассказов. В доказательство сказанного приведем только одну цитату из рассказа “Улики”:

      www.litmir.me

      Это интересно:

      • Приказ о делопроизводстве в фссп Приказ Федеральной службы судебных приставов от 2 июня 2016 г. № 366 “О внесении изменений в Инструкцию по делопроизводству в Федеральной службе судебных приставов, утвержденную приказом ФССП России от 10.12.2010 № 682” В целях реализации положений постановления […]
      • Надзор апелляция кассация Апелляция, кассация, надзор В целях осуществления профессионального контроля за законностью, справедливостью и обоснованностью вынесенных судебных решений в рамках системы судов общей юрисдикции предусмотрены апелляционная, кассационная и надзорная инстанции. Право […]
      • Закон путина о материнском капитале Путин подписал закон о продлении программы материнского капитала Закон опубликован на портале правовой информации МОСКВА, 29 декабря. /ТАСС/. Президент России Владимир Путин подписал закон, предусматривающий продление программы материнского капитала до конца 2021 […]
      • Как снять проценты по кредиту в суде В каких случаях банк может убрать проценты по кредиту? Вам необходимо обратиться в банк с заявлением о реструктуризации долга.К заявлению прилагайте документы, который подтвердят,что Ваше материальное положение ухудшилось. Реструктуризация долгов предусматривает полное […]
      • Расчет по кредиту для налога на прибыль Принимаемые для налогообложения проценты по кредиту - 2018 Отправить на почту Проценты по кредиту, принимаемые для налогообложения – 2016, 2017, 2018 — этот вопрос по-прежнему актуален, несмотря на отмену нормирования для большинства компаний. С какими нюансами могут […]
      • Увольнение по ст5 п35 в рб Советы адвоката: что делать, если вас уволили из-за отказа принимать изменившиеся условия труда В рубрике «Советы адвоката» мы отвечаем на ваши вопросы, относящиеся к области права и требующие квалифицированного разъяснения. Комментировать и разъяснять правовые аспекты […]
      • Тихвин патент мебель О компании Мы рады приветствовать вас на сайте нашей компании. На рынке Тихвинского района компания "Патент" успешно работает уже больше двадцати лет. Это сеть магазинов, торгующая мелкой, крупной бытовой техникой, мебелью, изделиями из золота, серебра и драгоценных […]
      • Оценка для нотариуса воронеж Оценка для вступления в наследство Оценка — процесс определения рыночной стоимости объекта или отдельных прав в отношении оцениваемого объекта. Экспертная оценка для вступления в наследство необходима для законного права обладания, полученным по завещанию или по закону […]