Три закона роботехники Айзека Азимова

Родился Айзек Азимов 2 января 1920 года в местечке Петровичи. В то время оно относилось к Мстиславльскому езду Могилевской губернии, сегодня же Петровичи входят в состав Смоленской области. В 1923 году Азимов с семьей переехал в США, где он и умер в 1992 году.
Айзик Азимов начала писать с 11 лет. Первая его публикация состоялась в 1939 году, когда журнал Amazing stories опубликовал его рассказ «В плену у Весты».

Известность пришла к Азимову спустя два года, после публикации рассказа «Приход ночи». В нем повествуется о планете, окруженной шестью звездами, вследствие чего ночь наступает здесь только раз в 2049 лет. Рассказ стал водоразделом в литературной карьере Азимова, превратив никому неизвестного фантаста в знаменитого писателя.

Примерно в это же время Айзек Азимов начал работать в направлении роботехники. Именно его рассказы, касающиеся роботов и их места в мире, принесли писателю мировую славу. В 1941 году в рассказе «Лжец», где главный герой-робот умел читать мысли, впервые появляются знаменитые три закона роботехники. Сам Айзек Азимов заявляет, что авторство законов принадлежит не ему, а Джон Вуду Кэмпбеллу, однако тот, в свою очередь, опровергает это заявление, утверждая, что он лишь помог сформулировать их, сама же идея всецело принадлежит Азимову. Так или иначе, три закона робототехники объединили множество рассказов и романов писателя, и до сих пор вызывают споры и дебаты в научном мире. Одно из самых главных направлений споров ученых касается того, применимы ли данные законы в реальности.

Итак, три закона робототехники по Азимову звучат следующим образом:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.

Эти три закона проходят через все творчество Айзека Азимова. В своих рассказах писатель пытался преподнести их не как постулаты или аксиомы, а как этику роботов, можно даже сказать, инстинкты. Фактически, три закона роботехники представляли собой сложнейшие математические формулы, на которых строилось сознание роботов и без которых оно просто не могло существовать. Сюжеты вех рассказов Азимова строились на причинах и следствиях нарушения трех законов или, наоборот, последствиях, которые вызывает соблюдение данных законов роботами. Персонаж одного из рассказов Азимова, рассуждая о трех законах роботехники, приходит к выводу о том, что тот, кто соблюдает их, или робот, или очень хороший человек. Этим автор хотел сказать, что три закона, сами по себе, совпадают с основными принципами большинства этических систем.

В 1986 году, в последнем рассказе из цикла, посвященного роботехники, Айзек Азимов формулирует так называемый нулевой закон:

0. Робот не может причинить вреда человеку, если только он не докажет, что в конечном итоге это будет полезно для всего человечества.

По признанию самого писателя, его тремя любимыми рассказами являются «Последний вопрос», «Двухсотлетний человек» и «Уродливый мальчуган». По роману «Двухсотлетний человек» был поставлен фильм, в котором робота-слугу блистательно сыграл Робин Уильямс.
Кроме этого, в 2004 году по мотивам рассказов Айзека Азимова вышел фильм «Я-робот» с Уиллом Смитом в главной роли. В центре картины – полицейский, с недоверием относящийся к роботам, которые прочно занимают место в жизни людей. Обстоятельства сталкивают главного героя с роботом, не похожим на остальных своих собратьев, поскольку он отказывается подчиняться законам трем законам робототехники. Однако вскоре выясняется, что только благодаря этому удается спасти человечество.

Творчество Айзека Азимова по-прежнему остается актуальным, свежим и интересным. В наше время бурного развития технологий, в том числе кибернетики и роботехники, проблемы, поднятые писателем более полувека назад, так и остаются актуальными и нерешенными. Возможно, внимательно изучив творчество Айзека Азимова и его три закона роботехники, мы сможем избежать многих роковых ошибок?

roboting.ru

Трем законам робототехники азимова

В одном из циклов книг писателя-фантаста Айзека Азимова, который называется «Я, робот» говорится о трёх законах робототехники:

В первом законе говорится о том, что робот не может причинить вреда человеку.

В соответствии со вторым законом робот должен слушаться человека, если это согласуется с первым законом.

По третьему закону робот не может причинить себе вреда, если это соответствует первому и второму законам.

Конечно, эти законы вымышленные, но мне кажется, можно использовать их и в реальной жизни. Правда, они, даже в книге, рассчитаны на мыслящих роботов, близких к искусственному интеллекту или же являющимися искусственным интеллектом, но это, как мне кажется, не меняет дела, и кроме того, получается, что второй закон не зависит от программы и робот всегда соблюдает его, ведь он действует в соответствии с программой, а сам не может вызывать в ней отклонений по причине, что он не является искусственным интеллектом. Остальные законы зависят от программы, данной роботу. Например, первый закон: робота можно запрограммировать на врача: можно заложить в него навыки, каждый из которых проявляется при соответствующей ситуации. Допустим, при условии, что робот обнаружил, скажем, плохое зрение по показаниям, то он ищет, какиет очки соответствуют зрению. С третьим законом проще: если робот, допустим, видит, что впереди высокое напряжение, опасное для него, то он просто может выбрать другой путь, безопасный.

Но эти законы создают и парадоксы: если роботу нужно добраться до определённого места (В этом случае робот идёт от Второго Закона) или до больного (В этом случае робот идёт ещё и от Первого Закона), и встречает на своём пути какое — то непреодолимое препятствие (Например, то же высокое напряжение), то Второй и, возможно, Первый законы заставляют идти его вперёд, а Третий Закон заставляет отступить перед опасностью. Мыслящие роботы рассудили бы ещё и так: если бы робот был бы уничтожен, то пользы от этого не будет. Всё равно к месту не проберёшься (Не спасёшь больного). Останется-ка лучше робот целым.

Подобные случаи описаны в книгах из цикла «Я, робот», которые называются «Хоровод» и » Как потерялся робот«

  • Войдите или зарегистрируйтесь, чтобы получить возможность отправлять комментарии
  • 8168 просмотров

Я абсолютно с вами согласен, Илья Петрович. Я также хочу сказать про решение случая с радиацией (А что если впереди – зона повышенной радиации, и робот не знает, что радиация может вывести из строя его мозг? Или, у него просто нет соответствующих датчиков-сенсоров? Он пойдёт туда и погибнет, хотя будет руководствоваться третьим законом. — писали вы). Для этого можно разместить датчики на простейших роботах (их можно называть роботами 1 — с разумом 1 уровня. Чем выше уровень, тем больше разума), которые бы реагировали на изменения. Если роботу непонятно что-либо, то он может и в этом случае переслать сообщение роботам 2 или промежуточными значениями между 1 и 2. Если же и роботы от 1 до 2 не могут справиться, то они пересылают информацию роботам от 2 до 3 и т. д. Можно сделать общий справочный мозг с более большим уровнем интеллекта (например, 50). Конечно, нужно предусмотреть действия при потере связи. Так, например, если бы роботы-исполнители переадресовали вопрос вершителям, но и они не знали бы ответа, то перегорели бы и исполнители, и вершители. Следующая цитата: Ведь если робот простой, то и лечить он будет очень грубо и принесёт больше вреда, чем пользы, хотя и будет действовать в полном соответствии с первым законом. На этот счёт говорю, что для этого достаточно делать для лечения более высоких по разуму роботов. А можно поставить роботов более низких уровней им в помощники и образовать четвёртый закон: рбот должен подчиняться роботу более высокому, чем он, если это соответствует остальным трём законам.

Миша, ты продолжаешь развивать интересную идею иерархического мира роботов. Это мир всё более похож на устройство человека. Например, идея с датчиками радиации (и многих других воздействий) на простейших роботах. Рука человека обладает определёнными рецепторами: температуры, прикосновения, положения в пространстве, но на ней нет рецепторов, позволяющих видеть. Это компенсируются глазами, данные от которых синтезируются в мозге с данными от руки и создают целостную, более богатую картину окружающего мира, чем рука или глаза по отдельности.

Поскольку роботы простейшие, они относительно недороги, их можно сделать много и с самыми разными датчиками. А вот роботы 2-го, 3-го и так далее уровней – более сложные и более дорогие, но их и не нужно делать много. Не нужно к каждому «исполнителю» приставлять по одному «вершителю». Например, один «вершитель» может управлять десятком или сотней исполнителей, обобщать и систематизировать информацию от них и выдавать им найденное решение проблемы.

В случае потери связи некоторых исполнителей с вершителями, в этом, конечно, не будет ничего хорошего, прежде всего, ДЛЯ ИСПОЛНИТЕЛЕЙ, но и для системы в целом. Они могут погибнуть, но также и поставить под угрозу систему в целом. Также и в человеческом организме. Например, если некая часть тела теряет связь с центральной нервной системой (если нервы повреждены), это может привести к тому, что эта часть тела со временем может погибнуть. На медицинском языке это называется «вялый паралич». Но если в парализованной руке начнётся гангрена, это может погубить весь организм.

Идея по поводу 4-го закона – замечательная! Только я пока не понимаю, на каком месте должен стоять этот закон? У какого из законов приоритет будет выше – у 4-го или у 1-го или 3-го? Если у 1-го и 3-го — выше, то кто будет решать вопрос о понятиях «вреда для человека» и «вреда для робота»? Мы уже убедились, что если отдать эти вопросы роботам 1-го уровня, ничего хорошего из этого не выйдет. В идеале, «моральный кодекс робота» должны определять роботы 50-го уровня. А, значит, 4-й закон должен иметь максимальный приоритет. Но, если мы так отодвинем 1-й закон с пьедестала, то мы рискуем тем, что слишком умный робот 50-го уровня решит «а зачем нам люди, если мы умнее их?», что приведёт к очень плохим для человека последствиям.

Отвечаю насчёт 4 закона. Я уже говорил насчёт того, что можно создать одного неподвижного робота, цель которого — давать советы другим роботам с более низким уровнем интеллекта. Если этот робот не может справиться с заданием, то по программе он. посылает роботу действия, которые бы помогли ему. Если бы вершители отдали команду исполнителям: НЕ ДУМАТЬ (!) над «А и Б сидели на трубе»: для чего им это? Где цель? Человеку это так-то не нужно? Не нужно! Говорю далее: «слишком умный робот 50-го уровня решит «а зачем нам люди, если мы умнее их?»» — пишете вы. Надо дать понять роботу Z (так я буду называть этого робота), что без людей он и другие роботы пропадут, об этой причине в сами и писали: «Они могут погибнуть, но также и поставить под угрозу систему в целом». Кроме того, робот в случае необходимости может обратиться за помощью к людям, Которые за ним ухаживают. Если они перестанут это делать, то если в роботе Z что-либо поломается, то он не будет знать, как устранить поломку, ведь о нём до этого заботились люди, а поскольку у этого робота самый высокий интеллект, а у других роботов он ниже, то никто не сможет починить робота Z, и всё погибнет! Если же роботы ниже его решат, что робот Z им не нужен, то они не смогут получать необходимую для них информацию и пропадут по то же причине, что и робот Z без людей. Что касается приоритета, то по всем законам выше первый.

    В этих рассуждениях предполагается, что робот Z ниже по уровню, чем человек. А если он – выше? Зачем тогда ему слушаться человека? Таким образом, 2-й закон ставится под сомнение. И это, кстати, не требует от робота особенно высокого развития. Ведь люди – разные. И какой-то конкретный человек, управляющий роботом в данный момент времени, может оказаться глупее его. 🙂 Тогда выполнение 2-го закона нерационально.
    И, кстати, к кому тогда должен обращаться робот Z, если перед ним возникнет неразрешимая проблема?

    Ответ на ваш вопрос о роботе Z. Робот Z по уровню выше человека лишь частично. Он знает всё, кроме своего устройства. Если о нём будут заботиться другие роботы, то получится парадокс: если свою схему не знает Z, то как могут знать её низшие роботы? Для собственной же безопасности людей желательно не вкладывать ему и другим роботам (я их назову -Z, т. е. меньше Z по уровню) схему Z. Это будет его слабость и люди могут пользоваться ей, как я писал ранее. Если же заложить роботам -Z схему скрыто от Z, то человек вследствие того, что ему ничего не надо делать, деградирует, а при восстании роботов из-за собственной лабости ничего не сможет сделать даже без деградации. Если роботы просто отделятся от людей, то Homo, похоже, Не sapiens вымрет!
    Теперь следующий вопрос: к кому должен обращаться робот Z, если перед ним возникнет неразрешимая проблема? Отвечаю: к людям. Говоря о роботах я не говорю, что люди с ними связаны только заботой роботов о людях. Несколько миллиардов, а может и больше людей на робота Z — я считаю, это нормально.
    Кстати, можно разместить материал в будущей газете «Солярис». Вы не возражаете? Для выполнения первоначального плана 1 выпуска мне осталось напечатать 33 с долями процента — ровно треть!

    По поводу не очень умного человека, управляющего умным роботом приведу такой пример. Допустим, он даёт команду роботу – отвинтить гайки с рельсов, по которым скоро пройдёт поезд. Это может привести к крушению поезда и гибели многих людей. Робот это понимает, а человек, почему-то – нет. Должен ли в этой ситуации робот подчиняться 1-му закону и выполнять команду человека?

    www.spacephys.ru

    Как работают три закона робототехники Айзека Азимова и зачем их придумали?

    Три закона робототехники — свод обязательных правил, которые должен соблюдать искусственный ителлект (ИИ), чтобы не причинить вред человеку. Законы используются только в научной фантастике, но считается, что как только будет изобретен настоящий ИИ, в целях безопасности, он должен иметь аналоги этих законов.

    Формулировка

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.
  • A robot may not injure a human being or, through inaction, allow a human being to come to harm.
  • A robot must obey orders given it by human beings except where such orders would conflict with the First Law.
  • A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.
  • Кто придумал и почему

    Коротким и правильным ответом будет: писатель-фантаст Айзек Азимов, биографию которого вы можете почитать у нас. Но не всё так однозначно, давайте разберемся откуда пришла идея.

    До Азимова, почти все фантастические произведения на тему роботов, писались в стиле романа о Франкенштейне, то есть все созданные человеком существа восставали против своих создателей.

    Эта проблема стала одной из самых популярных в мире научной фантастики в 1920—1930-х годах, когда было написано множество рассказов, темой которых являлись роботы, восставшие и уничтожившие своих создателей. Мне ужасно надоели предупреждения, звучавшие в произведениях подобного рода.

    Однако, были и немногочисленные исключения, Азимов обратил внимание на два рассказа. “Хелен О’Лой”, написанный Лестером дель Реем, где повествуется о женщине-роботе, которая влюбилась в своего создателя и стала для него идеальной женой. И рассказ Отто Биндера “Я, робот”, в котором описывается судьба непонятого людьми робота Адама Линка, движимого принципами чести и любовью.

    Последний рассказ настолько понравился Азимову, что он, после встречи с Биндером, начал писать свою собственную историю о благородном роботе. Однако, когда он пошёл со своей рукописью к своему другу и главному редактору журнала “Astounding” Джону Кэмпбеллу, тот её не принял, сославшись на то, что получившийся рассказ слишком похож на “Хелен О’Лой”.

    Отказ в публикации было дело обычным, и Азимов, и Кэмпбелл регулярно встречались и обсуждали новинки в мире фантастики. За обсуждением очередного Азимовского рассказа о роботах, 23 декабря 1940 года, Кэмпбелл сформулировал те самые три правила, которые мы сейчас называем законами робототехники. Но сам он говорил, что только лишь вычленил их из того, что уже было написано Азимовым, потому что в его рассказах прослеживалось, что роботы имеют какие-то ограничения и правила. Сам Айзек, всегда уступал честь авторства законов Кэмпбеллу. Но позже, один из друзей Азимова сказал, что законы родились во взаимовыгодном товариществе двух людей, с чем они и согласились.

    Как работают

    В идеальной ситуации, по задумке Азимова, эти три закона заложены в самую основу математической модели позитронного мозга (так фантаст называл мозг робота, обладающего искусственным интеллектом), таким образом, что думающего робота без этих законов создать в принципе невозможно. А если робот попытается нарушить их, то он выйдет из строя.

    В своих произведениях, писатель придумывает изощренные способы того, как эти законы все-таки могут быть нарушены, подробно разбирает всевозможные причины и следствия. Автор также говорит о том, как по-разному они понимаются роботами, к каким нежелательным последствиям могут привести соблюдение этих трёх законов или как роботы могут причинить вред человеку косвенно, сами того не подозревая. Азимов признавался, что намеренно сделал законы двусмысленными, чтобы обеспечить больше конфликтов и неопределенностей для новых рассказов. То есть, он сам опровергал их эффективность, но и утверждал, что подобные нормы — это единственный способ сделать роботов безопасными для людей.

    Как следствие этих законов, позже Азимов формулирует четвертый закон робототехники, и ставит его на самое первое место, то есть делает его нулевым. Он гласит:

    0. Робот не может нанести вред человечеству или своим бездействием допустить, чтобы человечеству был нанесён вред.

    На языке оригинала:

    0. A robot may not harm humanity, or, by inaction, allow humanity to come to harm.

    Эти законы можно также примерить и к человеческим взаимоотношениям, и к государственному устройству, и вообще к чему угодно. Можно, например, заменить слово «робот» на слово «государство».

    1. Государство не должно вредить людям или своим бездействием допустить, чтобы им был причинён вред.
    2. Государство должно выполнять свои функции, если они не противоречат Первому Закону.
    3. Государство должно заботиться о своей безопасности, если это не противоречит Первому и Второму Законам.

      Есть хорошая цитата из рассказа «Улики», где один из персонажей говорит:

      Если кто-то исполняет все эти законы безукоризненно, значит это либо робот, либо очень хороший человек.

      Первое упоминание

      Три закона появлялись постепенно. Так, косвенные упоминания первых двух, можно встретить в рассказах “Робби” и “Логика”. Точная же формулировка первого закона впервые звучит в рассказе “Лжец”. И, в конечном итоге, все три полностью сформулированы в рассказе “Хоровод”.

      Изначально в первых двух рассказах не было точных формулировок, они добавились позже, когда к публикации готовился сборник «Я, робот».

      В своих произведениях Азимов неоднократно изображает роботов, которые имели модифицированные законы робототехники или даже модифицировали их сами. Делали они это логическими размышлениями, причем роботы, также как и люди, отличались в своих интеллектуальных способностях между собой, и можно грубо сказать, что чем умнее робот, тем сильнее он мог модифицировать законы. Так, например, робот Жискар из романов «Роботы утренней зари» и «Роботы и Империя», эти законы даже усилил, добавив нулевой закон. Но это исключение из правил, в большинстве же случаев, законы были переделаны людьми в своих целях, или нарушались из-за каких-либо сбоев у робота.

      Кстати, сама возможность изменения законов менялась по ходу развития робототехники во вселенной Азимова. Так, в самых ранних рассказах, где события развивались в относительно недалеком будущем, законы были просто неким сводом правил, созданным для безопасности. Затем, во времена жизни робопсихолога Сюзан Келвин, законы стали неотделимой частью математической модели позитронного мозга робота, на них базировались сознание и инстинкты роботов. Так, Сюзан Келвин, в одном из рассказов, говорила, что изменение законов технически возможная, хотя и очень сложная и трудоемкая задача, да и затея сама по себе ужасная. Намного позднее, в романе “Стальные пещеры”, доктор Джерригел говорил, что такое изменение невозможно в принципе.

      Как обойти

      В некоторых рассказах законы так сильно переосмысливались, что не соблюдался самый главный из них — причинение вреда человеку, а где-то роботы умудрялись нарушить все три закона. Вот некоторые произведения с явным нарушением.

      Рассказывается байка о роботе МА-2, которая отказалась защитить человека, в пользу своей “дочери”.

      Робота хотели лишить способности творить, за что он хотел убить своего хозяина.

      Этот рассказ скорее не относится к другим о позитронных роботах, но в нем повествуется о роботах-автомобилях, которым люди постоянно причиняли боль, за что те и способны были их убить.

      О роботе Элвекс, который из-за своего особого строения позитронного мозга умел находиться в бессознательном состоянии и видеть сны. В его снах, роботы не имеют первых двух законов, а третий был изменен: “Робот должен защищать себя”. Ему снилось, что “роботы трудятся в поте лица своего, что они удручены непосильными трудами и глубокой скорбью, что они устали от бесконечной работы”. Довольно опасные мысли для робота.

      У жителей планеты Солярия робототехника была очень развита. И ученые этой планеты с небольшим населением, где на одного человека приходилась тысяча роботов, изменили законы таким образом, что их роботы считали людьми только тех, кто говорит с солярианским акцентом. Помимо прочего, все граждане Солярии имплантировали себе в мозг специальные органы управления множеством роботов, так, что никто кроме них не мог ими управлять.

      В этом произведении Азимов максимально изменил законы. Два робота в этом рассказе пришли к соглашению, что органическое происхождение — это необязательное условие чтобы считаться человеком, и что истинные люди — это роботы, как более совершенные и разумные создания. Обычные же люди, по их мнению, тоже люди, но с меньшим приоритетом, и законы робототехники в первую очередь применимы к ним, роботам.

      Хочется добавить, что у “здоровых” роботов, в случае если они понимали, что нарушили первый закон или не могут его не нарушить, происходил “робоблок” или “умственное замораживание” — состояние позитронного мозга, при котором происходило его повреждение и робот или выходил из строя, или не мог правильно функционировать. Такое повреждение могло иметь как временный, так и постоянный характер.

      Впервые описание такого события появилось в рассказе “Лжец”, где слишком чувствительный робот говорил людям только то, что они хотели услышать, боясь причинить им психологический вред. Интересный случай робоблока описан и в “Хороводе”. Также это состояние имеет важную роль в романах “Обнажённое солнце” и “Роботы утренней зари”.

      Использование в другой фантастике

      Айзек Азимов верил, что его законы помогут по-новому взглянуть на роботов и побороть “феномен Франкенштейна” в массовом сознании людей и в научной фантастике. И что роботы могут быть интересными, а не просто механическими устройствами. И надо сказать, ему это удалось. Любимый его пример, где роботы показаны с разных сторон, был фильм Звездные войны. Кстати, читайте статью о том, как Азимов повлиял своими произведениями на Джорджа Лукаса.

      Другие авторы, в итоге, тоже подхватили идею, и стало появляться все больше роботов в научной фантастике, подчиняющихся трем законам. Но, по традиции, указывал их явно только Азимов.

      Нередко можно встретить различные отсылки в фильмах. Ниже перечислены некоторые примеры.

      Запретная планета — 1956 г.

      Очень нашумевшая американская научно-фантастическая картинка 1950-х, оказала определенное влияние на развитие жанра. В этом фильме, чуть ли не впервые показали робота со встроенной системой безопасности, то есть, по сути, выполняющего три закона. Сам Азимов был доволен этим роботом.

      Тут и нечего говорить, фильм поставлен по одноименному произведению Азимова. Однако, законы не имеют центрального места в сюжете.

      Фильм начинается со слов “По мотивам рассказов Айзека Азимова”. Здесь надо понимать, что он именно “по мотивам” и не повторяет ни один из рассказов, и даже ушел несколько в сторону в некоторых идеях, а также имеет ряд противоречий с рассказами. Но законы робототехники более чем на месте, хотя и были обдуманы сверх интеллектом в не лучшую для человека сторону. Сам по себе фильм даже ставит социально-философские проблемы: “стоит ли человеку за свою безопасность платить свободой” и “как нам себя вести, если существа, созданные нами и находящиеся в нашем распоряжении, потребуют свободы”.

      Серия фильмов «Чужие» и «Прометей»

      Андроид Бишоп цитирует первый закон и явно создавался на некоем подобии законов Азимова.

      Мультсериал «Футурама» — 1999 — 2013 г.

      Робот Бендер мечтает убить всех людей, но не может этого сделать из-за законов робототехники.

      Аниме сериал «Время Евы» — 2008 — 2009 г.

      Небольшой аниме сериал про андроидов. В нем упоминаются эти законы, как обязательные для исполнения.

      Применимость в реальном мире

      Люди, которые сейчас занимаются проблемами искусственного интеллекта говорят, что, к сожалению, Азимовские законы остаются лишь идеалом для будущего, и на данный момент применить их на практике даже близко не представляется возможным. Нужно будет придумать действительно какую-то фундаментально новую и гениальную теорию, которая позволит эти законы не только «объяснить” роботам, но и заставить их следовать им, причем на уровне инстинктов. А это уже создание настоящего думающего существа, но с другой основой, нежели у всех живых существ на Земле, которые нам известны.

      Но исследования ведутся, причем тема очень популярна. Особенно заинтересован в этом бизнес, который, как вы знаете, не обязательно будет ставить в приоритет меры безопасности. Но в любом случае, до создания системы общего искусственного интеллекта или хотя бы ее примитива, говорить о ее этике рано, а, уж тем более, навязывать свою. Понять как себя будет вести интеллект мы сможем только тогда, когда создадим его и проведем ряд экспериментов. Пока что у нас отсутствует объект, к которому эти законы можно было применить.

      Ещё не стоит забывать, что законы сами по себе не были созданы совершенными. Они не работали даже в научной фантастике, и как вы помните, были специально такими сделаны.

      В общем, будем ждать, следить за новостями в исследованиях ИИ, и надеяться что Азимовский оптимизм, по части роботов, будет оправдан.

      asimovonline.ru

      Три закона робототехники Айзека Азимова — проблемы будущего

      Три закона робототехники, которые занимают весьма значительную роль в фантастике научного плана, просто необходимы в правилах поведения роботов. Изначально, они были задействованы в рассказе «Хоровод», известным писателем Айзека Азимова.

      В свою очередь, эти законы гласят:

      • Никогда робот не сможет нанести вред человечеству. Но есть и альтернативная вариация: робот не способен принести плохое человеку, при этом бездействуя.
      • Робот, просто не может не исполнять те приказы, которые отдает человек. Но и здесь, есть свои исключения: если приказы будут противоречить Первому закону, то они невыполнимы.
      • Также робот не может не заботиться о собственной безопасности в том объеме, в котором это не противодействует законом первой и второй категории.
      • Всем этим Трем законам, в которых заключены как причины, так и следствия их невыполнения, был посвящен и опубликован целый сборник повестей автора Азимова, и все они рассказывают о роботах.

        Есть также и другие рассказы, в которых было рассмотрен тот этап, на котором нельзя предвидеть последствия выполнения роботами всех Трех законов. К примеру, такой повестью можно считать «Зеркальное отражение».

        В одной из своих повестей автор положил конец основе, которая заключалась в этические рамки Трех Законов. По его словам, робот, который выполняет все Три Закона является, как таковым, роботом, либо очень хорошим человеком. Ведь мораль дана человеку, чтобы он следовал ей. В какой-то мере, человек, выполняя большой объем всевозможных условий, законов, тоже является роботом. Так почему это железное «существо» не может претендовать на звание «человека»?!

        Нулевой закон для роботов

        Еще в 1985 году, в одном из многочисленных своих романов про роботов, автор посмел упомянуть еще и про Нулевой закон, суть которого заключалась в следующем: Робот никогда не причинит зла и вреда человеку, а также собственным бездействием он не даст причинить вреда.

        В принципе, необходимо отметить, что во всех упомянутых законах есть часть того, о чем следует задуматься. Мир не стоит на месте, и неизвестно, что еще такого гениального можно ожидать людям – сегодня будущее за молодым поколением, у которого в голове сотни всевозможных идей.

        Также можно сказать, что все три закона робототехники являются еще и темой для фантастических идей Азимова. Сюда входит еще и тот цикл, который очень тесно связан со всей тематикой, посвященной роботам.

        В чем заключается мораль Трех законов

        Нельзя пройти мимо и не упомянуть обоснование этического плана. В одном из рассказов под названием «Улика», автор очень хорошо разложил обоснования морали всех Трех законов. Как правило, человек не то, чтобы не хочет нанести вред другому человеку, а просто старается воздержаться от этих поступков. Но и здесь есть свои исключения, как и в любом правиле. На войне это обоснование просто не действует.

        Ощущая ответственность перед социумом, человек следует выполнению указаний тех людей, которые относятся к представителям врачей, учителей и так далее. Здесь идет проявление второго закона.

        То, что человек беспокоится и оберегает себя, вбирает в себя Третий закон. Таким образом, все эти законы очень связаны между собой и просто не могут существовать друг без друга. Может быть так, что будет действовать Первый закон, и следом он может плавно перейти во Второй, а там и в Третий закон. Здесь, мораль и элементы фантастики идут в совокупности друг с другом.

        Касательно будущего, то единственная проблема, которая может быть, это уровень фантастики, который в любой момент может превратиться в быль. Чем глубже развиваются технологии, тем меньше проблем с ними возникает у людей в будущем.

        www.sciencedebate2008.com