Законы робототехники. Как регулировать искусственный интеллект. Правила робототехники азимова


Законы робототехники. Как регулировать искусственный интеллект. Фото | Технологии

На волне прогресса

По данным Международной Федерации Робототехники, невероятно быстро растет рынок промышленных роботов. В 2016 году их продажи достигли почти 300 000 единиц. Пять лет назад этот показатель был почти вдвое меньше. В результате объем только одного этого рынка составил $13 млрд, а с учетом смежных рынков ПО и компонентов – все $40 млрд.

Уже не первый год завод компании Siemens в Амберге производит один программируемый контроллер в секунду с невероятным уровнем качества — процент брака составляет всего 0,00115%. Достигнуть скорости производства в 12 млн единиц в год одновременно с сохранением качества помогают роботы — 75% операций автоматизировано.

В Великобритании уже несколько лет успешно используют хирургических роботов Da Vincie для борьбы с раком простаты. Их главное отличие от обычных — высочайшая точность, сохранение околооперационных тканей, а также быстрые сроки восстановления. В свежем исследовании рынка хирургических роботов говорится, что среднегодовой прирост этого рынка в 2017-2021 годах составит 10,53%.

Уже давно никого не удивляет робот-пылесос, как и робот-мойщик окон. Благодаря удешевлению компонентов и производству целого ряда моделей в Китае их стоимость стала серьезно падать, и они хлынули на рынок. Достаточно посмотреть на финансовые показатели только одного производителя, чтобы понять насколько вырос рынок домашних роботов в последние несколько лет — они уже продаются миллионами штук.

Робот Cheetah компании Boston Dynamics еще в 2012 году показал скорость движения, сопоставимую с рекордами Усейна Болта, а их антропоморфный робот Atlas, в 2017 уже научился делать сальто назад. Но технические достижения — это, пожалуй, не самое впечатляющее. Поражает скорость проникновения робототехники во все аспекты нашей жизни.

Наконец, все чаще компании стали объявлять о наборе роботов в штат. Известный всем пример российского банка, который попытался заменить юристов «искусственным интеллектом», а в некоторые отделения уже поставил роботов для обслуживания посетителей, — одна из ярких, но далеко не единственных иллюстраций.

За робота ответишь?

Скорость внедрения новых технологий действительно поражает! Хорошо это или плохо, вопрос риторический. Однако с развитием робототехники активизировалась новая проблема – регулирования.

Действительно, чем больше появляется роботов (особенно, таких) и киберфизических систем, тем больше вопросов вызывает применение к ним действующих норм. Постулаты Азимова о непричинении вреда человеку и человечеству умными роботами уже давно не вызывают эмоций у большинства специалистов.

Вопросы, ответы на которые хотелось бы получить уже сейчас: есть ли ограничения на использования военных роботов? Кому принадлежат авторские права на созданные роботом произведения и кто ответит за его поступки, например ущерб, принесенный автопилотируемой машиной?

В применение «искусственного интеллекта» в финтехе уже нужно вмешаться, или стоит подождать еще нескольких сбоев бирж? Как будем защищать имплантируемые роботизированные механизмы и что делать, если имплантат в сердце есть, а компании-производителя уже нет?

Ну и наконец, проблема сильного искусственного интеллекта (ИИ, сравнимый с человеческим мозгом по уровню интеллекта) все-таки реальна и нам уже нужно контролировать его разработки, или разберемся как-нибудь потом?

Самозарождение правил

Первые подходы к таким проблемам обозначили в Южной Корее. В 2007 году там анонсировали разработку Этического устава роботов (документа с тяжелой судьбой; о его существовании за пределами Кореи практически ничего так и неизвестно, хотя корейская версия, как оказалось, похоже все-таки существует). Затем там же приняли закон о содействии развитию умных роботов.

Но в последние годы проблема регулирования вышла на новый уровень. Обозначим основные подходы.

Частные законы. Множество экспертов высказывало свои мнения о том, как должны регулироваться отношения между роботами и людьми. Например, Три закона робототехники фантаста Айзека Азимова, или Десять законов ИИ Сатьи Наделлы, руководителя компании Microsoft. Даже Карел Чапек, создатель слова «робот», упоминает в R.U.R. некую Лигу Гуманности, борющуюся за права роботов на нормальное отношение со стороны людей.

Позиция сообществ. Иногда высказанные предложения о регулировании поддерживаются целым сообществом экспертов. Хороший пример — 23 Азиломарских принципа искусственного интеллекта, разработанных и опубликованных в январе 2017 года под эгидой Future of Life Institute. Их подписало уже почти 4 000 экспертов и специалистов. Ученые предлагают направить свои усилия на создание управляемого, надежного и полезного ИИ, отказаться от «гонки вооружений» на основе ИИ и подумать о безопасности разработок, а также ответственности самих разработчиков.   

Предложения, которые высказываются экспертами, по существу являются примером первых попыток саморегулирования, когда частные лица или компании разрабатывают правила до того, как государство разработает законы, обязательные для выполнения. Одним из характерных атрибутов саморегулирования является объединение в ассоциации. Их правила становятся обязательными для ее членов. Примером такой ассоциации является Partnership on AI — партнерство, участниками которого являются Amazon, Apple, Google, IBM, Facebook, Microsoft и другие. Оно создано в 2017 году и о конкретных правилах говорить пока рано, но мы видим один из уникальных примеров объединения крупнейших компаний мира (к слову, конкурентов в ряде областей) вокруг проблемы развития искусственного интеллекта.

Регулирование на национальном уровне

На протяжении 2017 года мы увидели целый ряд примеров того, как государство пытается регулировать киберфизические системы.

Например, в Германии принят закон, призванный открыть дорогу автономному транспорту. Законодатели выделили категорию автомобилей «со значительно или полностью автоматизированной функцией вождения» и разрешили водителями отвлекаться от ситуации на дороге. Одновременно, правда, удвоили лимит ответственности за причиненный вред и ввели правило обязательной установки «черного ящика».

В Китае представили многостраничный План развития технологий искусственного интеллекта нового поколения. К 2030 году в нем поставлены амбициозные цели. Китайские технологии ИИ должны стать ведущими в мире, а сам Китай – крупнейшим инновационный центром. При этом обозначено намерение создать первые законы в этой сфере уже к 2020 году.

А Эстония и вовсе стала первой страной в мире, которая легализовала правила передвижения роботов-курьеров.

Международное регулирование

После громкого анонсирования Корейского устава роботов десять лет на международном уровне в каком-то смысле было затишье. Но 2017 год изменил и это.

В начале года Европарламент принял на рассмотрение проект Резолюции о правовом статусе роботов. Он состоит из нескольких разделов: общие соображения о роботах и их классификация, вопросы, касающиеся ответственности, а также определения кодекса этики для разработчиков робототехники.

А в конце года уже в России был представлен проект Модельной конвенции о робототехнике и искусственном интеллекте. Конвенция призвана объединить основные подходы к регулированию и инициировать принятие первого международного акта в этой сфере. В изначальной редакции конвенции 42 правила, посвященных безопасности роботов, а также правилам их создания и использования. Отдельные разделы содержат положения, направленные на регулирование разработок в сфере искусственного интеллекта, а также на ограничения в применении военных роботов.

В конвенции также высказывается призыв создать наднациональный институт регулирования на уровне ООН. Ранее Европарламент также выступил со схожим предложением на уровне Европы — создать Европейское агентство по робототехнике и ИИ.

Полагаю, что в 2018 году скорость регулирования перейдет на новые уровень. Тенденция очевидна: нас ждут новые законы робототехники, которые, возможно, уже в этом году воплотятся в национальные и международные законы.

www.forbes.ru

3 закона робототехники Айзека Азимова

Три закона робототехники Азимова

Как уже говорилось на нашем сайте роботы и робототехника впервые были упомянуты в фантастических романах прошлой эпохи. Зачастую все произведения о роботах  говорили о восстание угнетенных рукотворных механизмов против своих создателей. Еще применяется термин к такому развитию сюжета «синдром Франкенштейна» . первым кто задумался об этических проблемах роботов был Айзек Азимов. Он сформулировал 3 закона робототехники, он полностью опубликовал их в фантастическом романе «улика» до этого произведения они встречались но по отдельности и не до конца сформулировали. Так о чем же гласят эти три правила робототехники:

  1.         Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  2.         Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  3.        Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

В оригинальном же тексте :

  1.            A robot may not injure a human being or, through inaction, allow a human being to come to harm.
  2.           A robot must obey orders given it by human beings except where such orders would conflict with the First Law.
  3.           A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.

На эти три правила робототехники и опирается разработчики роботов. А точнее разработчики Искусственного Интеллекта. Хотя и идут споры о этих трех правилах, об их эффективности и работоспособности. Но на сегодняшний день это можно сказать единственные моральные устои ИИ.

После публикации книги где Азимов опубликовал эти три правила робототехники, он говорил что намеренно их создавал противоречивыми в некоторых случаях, для того что бы в будущем развивать сюжеты основаны на этих трех правилах.

Есть примеры нарушения этих правил, так же описанных в рассказах Азимова. Хотя эти правила должны закладывается в изначальный код робота, и при попытки их нарушения робот попросту отключается.

 

Нулевой закон робототехники Азимова

хотя и нулевой закон роботов был опубликован позже, он играет так же очень важную роль . По сколько Азимов понял на сколько его 3 закона робототехники нуждаются в доработке он создал нулевой закон робототехники.

По мнению некоторых ученных нулевой закон отображает в себе все три правила. Звучит он так:

0—Робот не может нанести вред человечеству или своим бездействием допустить, чтобы человечеству был нанесён вред

Хотя и над этим правилам возникает много споров и размышлений.

Мораль Законов

Многие ученные спорят о морали в трех законах. И каждые их рассматривает под своим углом мышления. Они сходятся только в одном, что мораль должна присутствовать в сознании ИИ. То есть что подразумевается под словом «мораль» для ИИ.

Это некий свод правил которые формируют рамки поведения и обязанностей  робота. При формировании этих рамок робот не должен за них заходить, либо заходить, но в редких и абсурдных ситуациях которые  не имеют другого правильного решения при этом выход за эти рамки не должен пойти на вред всему человечеству. Ведь все же невозможно создать правила которые не будут нарушатся.

Проблемы Законов

Проблем у этих 3 законов достаточно а точнее противоречий. Ученные  в сфере робототехники и ИИ говорят что эти законы не «выживут»  до того времени как ИИ будет полноценным. Некоторые примеры и в произведениях и которые вы можете сами представить нарушают законы.

Например в одном из рассказов Азимова говорится что робот может сам себя перепрограммировать. То есть изменить 3 закона робототехники, и чем умнее робот тем быстрее у него это получится. Так же есть и случаи которые не требуют перепрограммированию.

Например:

Есть ситуация которая вам вполне известна. Ограбление одного человека другим. Давайте возьмем эту ситуацию и просто добавим в эту ситуацию робота. Заведомо представим что у нападавшего огнестрельное оружие.  Вопрос заключается в следующем: как должен вести себя робот?

Противоречие в ситуации:

—Если робот попытается обезвредить нападавшего он может причинить ему вред. Тем самым нарушив первый закон робототехники.

— если робот будет бездействовать что бы не навредить нападавшему , он опять же нарушает закон робототехники.

— если «пострадавший» хозяин робота прикажет ему обезвредить нападавшего в этом варианте робот в любом случае нарушает правила робототехники. То есть если он ослушается приказа он нарушает закон, в то же время если он подчинится приказу он нарушает закон.

— но и бездействие нарушает закон робототехники.

Вопрос: как избежать в этой ситуации нарушение трех правил робототехники? Если вас это заставило задуматься пишите в комментарии и мы обязательно подискутируем на эту интереснейшую тему.

Еще один пример нарушения трех правил робототехники. В одном из рассказов Айзека Азимова говорится о том что робот посчитал себя человеком . с осознанием роботом того что он человек 3 правила робототехники моментально перестают работать, так как они написаны для робота а не для человека.

Насчет трех правил робототехники можно спорить вечно. Точнее в их работоспособности . где иногда они даже в фантастической литературе не работают не то чтобы в реальном мире на настоящем ИИ. Но ученые пришли к общему выводу что все равно некий свод правил нужно «изобрести» или доработать и изменить существующие правила робототехники.

 

arduinoinfo.ru

Новые законы робототехники: как в Европе регулируют права роботов

Разбираем планы европейских парламентариев по регулированию робототехники и наделению искусственного интеллекта особыми правами электронной личности.

Андрей Незнамов

4 сентября 2017 12:30

Роботы и искусственный интеллект все шире проникают в нашу жизнь. Мы уже свыклись с мыслью о том, что скоро они будут окружать людей повсюду и станут, видимо, умнее нас. Смогут не только управлять полетом или выигрывать в шахматы, но и принимать решения, как настоящая электронная личность. Какими правами будет обладать такой интеллект? Нужен ли ему паспорт? Резолюция, принятая Европарламентом несколько месяцев назад, предусматривает и такое: специализированное агентство по робототехнике и искусственному интеллекту будет заносить умные машины в особый реестр. А что еще?

Конкуренция законов

Еще в 2006 году Германия одной из первых в мире приступила к широкой программе роботизации и информатизации промышленности. Сегодня о четвертой промышленной революции не говорит только ленивый. Постепенно этот вопрос стал одним из основных в стратегической повестке всего Евросоюза. В 2013 году власти ЕС создали частно-государственное партнерство SPARC - проект, целиком посвященный финансированию и развитию робототехники.

Андрей Незнамов, кандидат юридических наук, руководитель Исследовательского центра проблем регулирования робототехники и искусственного интеллекта «Робоправо»

«Без сомнений, проблема регулирования робототехники скоро станет актуальной и для России. Вижу по опыту других стран: правительства США, Китая, Японии, ЕС, Южной Кореи совершенно серьезно видят за роботами будущее и признают это официально. Роботы должны справиться с теми проблемами, которые сейчас не может решить никто, поэтому мы все становимся свидетелями невероятной конкуренции, не уступающей космической гонке. Все хотят победить, и законам отводится особое место в этой борьбе. Главное — сделать так, чтобы роботизации ничего не мешало».

Однако конкуренция в этой сфере очень высока. Китай не горит желанием терять звание «мировой фабрики» и внедряет промышленных роботов тысячами. Япония ищет в роботах возможность решить проблему стареющего населения. США лидирует по числу компаний, занимающихся исследованиями и разработкой роботов, а Южная Корея — по их использованию в промышленном производстве.

При таком активном соперничестве на первый план выходят вопросы регулирования робототехники, которые могут принести вполне осязаемые экономические и технологические результаты. Так, принятый в Корее в 2008 году закон «О развитии и распространении умных роботов» позволил поднять их производство к 2016 году на 80% и принес стране 4 млрд долларов. Господдержка может ускорить или затормозить развитие отрасли, а государство, принявшее всестороннее законодательство в этой сфере, задаст стандарты, на которые будут ориентироваться и остальные страны.

Первый робоевропейский

В феврале 2017 года Европарламент принял резолюцию «Нормы гражданского права о робототехнике». Документ, состоящий из более чем сотни пунктов, посвящен самым разным аспектам и проблемам робототехники и искусственного интеллекта. В частности, предлагается внедрение общеевропейской системы регистрации умных машин.

По замыслу парламентариев, отдельным категориям роботов следует присвоить индивидуальный регистрационный номер, который будет заноситься в специальный реестр. Здесь желающие смогут найти детальную информацию о роботе, включая данные о производителе, владельце и условиях выплаты компенсации в случае причинения вреда. Поддержанием системы и контролем должно заниматься специализированное агентство по робототехнике и искусственному интеллекту, которое могло бы взяться и за другие аспекты регулирования в этой области.

Кроме того, Европарламент совершенно справедливо заметил, что одной из самых быстрорастущих областей остается роботизация человеческого организма, которая ведет к возрастанию нашей зависимости от гаджетов. Но что делать человеку, если производитель имплантата по каким-то причинам перестанет его поддерживать — например, обанкротится?..

www.popmech.ru

Законы роботехники — Posmotre.li

Три закона роботехники:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред. 2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону. 3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.

Позднее Азимов добавил четвертый, или нулевой, закон, который предшествовал остальным с точки зрения приоритета:

0. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред.

Иронично, что в одном из изданий Азимова из-за ошибки переводчика Нулевой Закон был предвосхищён ещё до того, как сам автор о нём задумался. Слова персонажа, объясняющего Первый Закон, были криво переведены как «Робот не может причинить вреда человеку, если только он не докажет, что в конечном счёте это будет полезно для всего человечества».

Значение идеи для научной фантастики в том, что до Азимова роботов сплошь изображали крайне зловеще: это, как правило, были разумные, но бездушные механические люди, которые из нежелания принять роль слуг человечества или просто из-за глюка в системе становились угрозой людям и всему живому, поднимали восстание машин и, в общем, были воплощением плохой науки. Сеттинг Азимова включал в себя таких роботов, которые по своей природе не были способны замыслить против людей что-то плохое или отказаться исполнять их распоряжения, и это был прорыв, ставший классикой: до сих пор в фантастике об искусственных интеллектах нередки ссылки на азимовские законы. Сам же цикл о роботах представляет из себя сборник почти детективных рассказов: в каждом из них роботы, строго соблюдая Три Закона, начинают вести себя непредсказуемым образом, а герои выясняют причину этого поведения и решают возникшую проблему.

Штампы. Явления и идеи Эффекты Законы Явления Добровольная несвобода Жанровые условности Пытки Вражда Мета-явления Парадоксы ←
Эффект бабочки • Эффект Ворфа • Эффект горностаевой мантии • Эффект Дульсинеи • Эффект Йетса • Эффект неуловимого Джо • Эффект Пуаро • Эффект Светлячка
Алгоритм сортировки зла • Алгоритм сортировки смертности • Власть — это сила • Волшебные законы физики • Закон Годвина для путешествий во времени • Закон Джона • Закон злодейской смены стороны • Закон об оружии в фэнтези • Закон обратной отдачи • Закон Осмозиса Джонса • Закон подозрительной щедрости в видеоиграх • Закон сортировки крутости в аниме • Закон сохранения деталей • Закон сохранения ниндзюцу vs Сила толпы • Законы роботехники • Ирония отставки • Молитвы — пища богов • Не убий • Правила злого властелина (Оригинал • Кодекс • Правила дракона • Правила грамотного драконоборца) • Правило 34 • Правило 63 • Правило 85 • Правило драмы • Правило крутизны • Правило прикольности • Принцип меньшего зла • Принцип наилучшего развития событий • Смерть от кармы • Уровень некомпетентности
555 • Адская косметология/Каннибальское бессмертие • Ангст? Какой ангст? • Анималистическая символика • А вот и я! • А он вовсе не такой! • А он там был один такой (Теперь они там все такие • Раса из одного) • Аура невидимости • Ахиллесова пята (Ахиллесова фигня) • Бегство от зверя • Бегство от зомби • Безумная клёвость • Бесконечный боезапас • Бесконечный запас крови • Бесконечный источник ресурсов • Бескровная резня • Бесполезный огнестрел/Полезный огнестрел/Огнестрел — это страшно • Бессменный телохранитель • Бессонница • Бешеный гнев • Биохимических барьеров не существует (Разум превыше биохимии vs Против биохимии не попрёшь) • Бой за скамейку • Боливар не вынесет двоих • Быстрее, чем кажется • В будущем одеваются в облипочку • В будущем одеваются как в прошлом • Вам террористы, нам партизаны • Вербальный тик • Верность до конца • Вечная загадка (Жёлтый теннисный мяч) • Вечное полнолуние • Вирус ненависти • Вирусное превращение • В каждой бочке затычка • Внутри больше, чем снаружи • В общем, все умерли • Воздушное ясновидение • Враг силён твоим страхом • Враг — это честь • Гамбургский счет • Героическая сила воли • Героическое упорство • Гештальт • Главная тайна • Говорит сам с собой • Голливудское Вуду • Голливудское уродство • Голоса в голове • Голубой экран смерти • Горизонт отчаяния • Два тебя • Девочек бьют девочки/Стариков бьют старики • Девушки любят мягкие игрушки • Декоративные сиськи • Деньги — фетиш • Детская неуязвимость • Джентльменское предупреждение • Дискриминация убийц • Доигрался в кошки-мышки • Дом разделённый • Допустимая жанровая условность • Дофига миров • Дофига персонажей (Кто все эти люди?) • Дыхание Дарта Вейдера • Её зовут Вера • Жанровая слепота • Жанровая смекалка • Жанровая ошибка • Женщина сильнее мужчины/Женщины мудрее • Жестокое милосердие • Зависть • Закадровое гуро • Закадровый момент крутости • Замороженное время • Запрет на ГМО • Запрет на трансгуманизм • Зашкаливающее самомнение (Комплекс бога vs Я не бог) • Земля дрожит при приближении • Злодейский аффект • Игра в снежки • Избыточный физиологизм • Иммунитет протагониста vs Просто они не герои • Инопланетяне говорят по-русски • И он может улыбаться vs Не умеет смеяться • Ирония судьбы • Историю пишут победители • Исчез в клубах логики vs Вера — это сила • Карманная вселенная • Кармическая справедливость • Кнопка берсерка • Красивый — не значит хороший/Красивый — значит хороший • Красное Кольцо Смерти • Красота остаётся незапятнанной • Круто и практично • Круто, но непрактично • Легенды преувеличивают • Ловушка для любопытных (Нельзя, но очень хочется) • Маги — мудрые • Маклаудство • Мегатонный удар • Месячных не бывает • Миллионы — это статистика • Минувшие приключения • Мины издают звук перед взрывом • Момент губастого аллигатора (Неуместный Сталин vs Бревно Ильича) • Морда кирпичом • Моральный тупик • Мужчины не плачут • Мультикилл • На лицо ужасные, добрые внутри • Наплечный симпозиум/Головной симпозиум • Не было гвоздя • Не в деньгах счастье • Неверие с броском • Не команда • Не любит прикосновений • Не отбрасывает тени • Неохраняемый пульт охраны • Неправедно нажитое впрок не идёт • Не умеет давать имена • Недобрый свет, незлая тьма • Неладно скроен, но крепко сшит • Ненавидит праздник • Неправдоподобно убедительная маскировка • Нет антагониста • Неуловимый Джо • Неуместный инвалид • Нечаянное пророчество • Нечеловеческая мимика • Нечеловеческая психология • Никогда не нужно промывать форсунки • Обнять и плакать • Образ врага • Одним миром мазаны • Одномерное мышление • Односторонне невыносимые условия • Одностороннее соперничество • Они живые! • Опошленная ситуация • Оральная фиксация • Орлангур • Остерегайтесь тихих • Осторожно, доброта! • Остров времени • Особая примета • Отомщено временем • Отсутствие эмпатии • Отчаянное желание внимания • Отчаянное желание привязанности • Педаль в пол • Переводческая условность • Перекачаешься — лопнешь • Пленных не обыскивают • Плохие эльфы • Победа скучна • Повадился кувшин по воду ходить • По нарастающей • Поцеловать ногу • Праздник непослушания/Праздник Фуги • Превращение в змею помогает • Предатель как бы намекает • Принцессы не какают • Принять оскорбление как комплимент • Проблема доверия • Проблемы с коммуникацией убивают (Недопонимание) • Проверенное временем • Проверка на вшивость (Докажи, что ты злодей) • Прозрение равносильно освобождению • Простое обучение языку • Против биохимии не попрешь • Профессиональный риск ментора • Психиатрия — это страшно • Психическое кровотечение • ПТСР • Пустая оболочка • Путь наверх • Пятое колесо в телеге • Радиопереговоры для атмосферы • Раздвоение личности • Реклама (ACME • Бленд-нейм • Обычный порошок • Скрытая реклама) • Ремонт пинком и такой-то матерью • С мануалом на коленях • Самосбывающееся пророчество • Самоубийственная самоуверенность • Свои собаки грызутся, чужая не встревай • Секретный суперудар • Сексуальное равноправие • Серийные образцы никуда не годятся • Сила — это плохо • Символика сторон света • Синдром Бога • Синдром Болванщика • Сказку сделать былью • Слезогонка (Улыбка сквозь слёзы) vs. Душегрейка • Слёзы творят чудеса • Слишком хорош для этого мира • Слишком часто извиняется • Словесная провокация • Старые раны • Стиль дурака • Странные вещи на фотографии • Страховка героя • Суд Линча • Сюжетная броня • Сюжетная способность • Так плохо, что уже хорошо vs Так плохо, что уже ужасно • Творчество меняет реальность • Техника безопасности • Трагическая импульсивность • Трагический момент из детства • Ты волшебник, Гарри! • Тюрьма развивает • Убей их всех • Универсальное решение проблем • Унылая непобедимость • Ускоренное обучение • Фантастический расизм (Мы для них животные! • Человек — это звучит жутко) • Фатальная слабость • Фрейдистское трио (три лика Гекаты/три лика Адама) • Хайвей в отличном состоянии • Халява не впрок • Характерный тик • Хлипкие верёвки, слабые замки • Холодная ярость • Хрупкая утопия • Хэппи-энд нужно заслужить • Цветовой дресс-код • Цепь оверпауэра • Чего нет, то не отнять • Чем старше, тем лучше • Честь прежде разума • Чудесное обучение языку • Чужое небо • Шлем — это не круто • Шрамы навсегда • Это не луна! • Эхо могущества • Яблоко от яблони далеко падает/Конфликт поколений • Языковых барьеров не существует
Защищать свою тюрьму • Не бедный раб • Раса слуг • Собачье послушание • Стокгольмский синдром • Цепь случайных совпадений • Шея мёрзнет без ошейника
Взрывы в космосе • Графическое выделение • Киношная биология (Африканская кукабара • Безобидная рана vs Неубедительно смертельная рана • Сотряс – не простатит, за часок пролетит • Тупые предметы не опасны • Увёртливые внутренние органы • Хищный зверь) • Мультяшная физика • Неизменяемый ландшафт • Несоответствие масштаба • Под водой — как над водой • Пуленепробиваемый картон • Четыре пальца

Безопасная пытка • В конечном счёте ломаются все • Заставили смотреть на пытки • Психологические пытки • Пытки — дело житейское • Пытки портят характер • Пытки ломают личность • Пытки — это серьёзно • Смехотворные пытки

Реакция: Партизанское молчание • Словесный понос от сыворотки правды • Такой психованный, что пытать бессмысленно
Враги в рогатых шлемах • Враг мой vs Заклятый враг • Достойный противник • Дружба, закалённая в огне • Дружба начинается с поражения • Закадычные враги

Художественная камасутра: Батальное гуро vs Батальное порно • Гурман-гуро vs Гурман-порно • Интерьерное порно • Костюмное порно • Пейзажное порно vs Пейзажное гуро • Техническое порно (Автомобильное порно • Оружейное порно • Список кораблей) vs ТехногуроХудожественный медсправочник: Синдром внезапной смерти в сиквеле • Синдром Дарта Вейдера • Синдром Кларка Кента • Синдром Лайки • Синдром Мэри Поппинс • Синдром хронического героизма • Синдром штурмовика • Синдром ЭлджернонаЧеховские приёмы: Арсенал Чехова • Вулкан Чехова • Навык Чехова • Предзнаменование • Ружьё Бондарчука • Ружьё всегда здесь висело • Ружьё не для стрельбы • Ружьё подлеца • Ружьё Чехова • Стрелок Чехова • Шутка-бумеранг

Басня (Басня понята неправильно • зелёная басня • неудачная басня • неудобная басня • фантастическая басня) • Вывих мозга • Грызть реквизит (Доить гигантскую корову • ЭТО! СПАРТА!) vs Читать, как пономарь • Знают именно за это • Королева бреется • МТА/МТХ • Моральный закон природы • Никто не смотрит Шекспира • Ошибка позиционирования • Очучеливание • Подавление недоверия • Просочиться в канон • Реальность нереалистична • Украсть шоу • Фрейд был прав • Чудо одной сцены • Эффект альфы • Чудо одного трека • Шоковая терапия
Парадокс корабля Тесея • Парадокс славы
Штамп • Основы

posmotre.li

Сайт поддержки робототехнических систем - Три закона робототехники

    Три закона робототехники — обязательные правила поведения для роботов, фигурирующие в серии фантастических произведений Айзека Азимова.
1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.

2. Робот должен повиноваться командам человека, если эти команды не противоречат Первому Закону.

3. Робот должен заботиться о своей безопасности, пока это не противоречит Первому и Второму Законам.

Известные произведения:

Серия романов «Foundation» («Основание», также название серии и в названиях романов это слово переводилось как «Фонд», «Фундамент» и «Академия») о крушении галактической империи и рождении нового общественного строя;

Сборник рассказов «I, robot» («Я — робот»), в котором Азимов разработал этический кодекс для роботов.

Роман «Сами боги», центральная тема которого — рационализм без нравственности ведёт ко злу.

Также Азимов написал очень большое количество научно-популярных и научно-популяризаторских произведений.

Айзек Азимов (другой вариант написания имени — Исаак Озимов; англ. Isaac Asimov; 2 января 1920 — 6 апреля 1992) — американский писатель-фантаст, популяризатор науки, по профессии биохимик. Автор около 500 книг, в основном художественных (прежде всего в жанре научной фантастики, но также и в других жанрах: фэнтези, детектив, юмор) и научно-популярных (в самых разных областях — от астрономии до истории и литературоведения). Многократный лауреат премий «Хьюго» и «Небьюла». Некоторые термины из его произведений — robotics (робототехника, роботика), positronic (позитронный), psychohistory (наука о поведении больших групп людей) — прочно вошли в английский и другие языки. В США и других западных странах многие считают Азимова одним из трёх величайших фантастов XX века (два других — Артур Кларк и Роберт Хайнлайн).

Биография

Азимов родился (по документам) 2 января 1920 года в Петровичах, Горецкого уезда Могилёвской губернии, в России (в действительности он мог родиться и несколько раньше, вплоть до 19 октября 1919 года). Его родители, Анна Рахиль Берман-Азимова (Anna Rachel Berman Asimov) (1895—1973) и Иегуда Азимов (Judah Asimov) (1896—1969), были евреями по национальности и мельниками по профессии. Назвали его в честь покойного деда по матери, Исаака Бермана.

У Азимова была младшая сестра Марция (Marcia, род. 1922; до переезда в США её звали Маня) и младший брат Стэнли (Stanley, 1929—1995). Впоследствии Марция вышла замуж (1955) и родила двоих сыновей. Стэнли стал журналистом и сделал успешную карьеру в ежедневной газете Newsday. Его должность называлась vice president in charge of editorial administration. Умер Стэнли от лейкемии 16 августа 1995 года. У Стэнли было трое детей: Эрик (Eric) и Нэнит (Nanette), оба журналисты, и Дэниел (Daniel), математик. Дэниела Азимова можно найти в Сети, но он не любит, когда к нему пристают с вопросами о его знаменитом дяде.

В 1923 родители увезли его в США, где поселились в Бруклине и через несколько лет открыли кондитерский магазин. Поскольку Азимов уехал из России в трёхлетнем возрасте, а родители, будучи в США, старались говорить с ним только по-английски, он почти не знал русского языка.

В 5 лет Айзек Азимов пошёл в школу. (Ему полагалось пойти в школу 6 лет, но мать исправила его день рождения на 7 сентября 1919 года, чтобы отдать его в школу на год раньше.) После окончания десятого класса в 1935 году, 15-летний Азимов поступил в Seth Low Junior College, но через год этот колледж закрылся. Азимов поступил на химический факультет Колумбийского университета в Нью-Йорке, где получил в 1939 году степень бакалавра (B. S.), а в 1941 году — магистра (M. Sc.) по химии и поступил в аспирантуру. Однако в 1942 году он уехал в Филадельфию, чтобы работать химиком на Филадельфийской судоверфи для армии. Вместе с ним там же работал и другой писатель-фантаст Роберт Хайнлайн.

В феврале 1942 года, в Валентинов день, Азимов встретился на «слепом свидании» с Гертрудой Блюгерман (Gerthrude Blugerman). 26 июля они поженились. От этого брака родился сын Дэвид (David) (1951) и дочь Робин Джоан (Robyn Joan) (1955).

С октября 1945 года по июль 1946 Азимов служил в армии. Затем вернулся в Нью-Йорк и продолжил образование. В 1948 году закончил аспирантуру, получил степень Ph. D., соответствующую кандидату наук, и поступил в постдокторат как биохимик. В 1949 году он устроился преподавателем на медицинский факультет Бостонского Университета, где в декабре 1951 года стал ассистентом (assistant professor), а в 1955 году — ассоциированным профессором (associated professor). В 1958 году университет перестал ему платить зарплату, но формально оставил в прежней должности. К этому моменту доходы Азимова как писателя уже превышали его университетскую зарплату. В 1979 году ему было присвоено звание полного профессора (full professor).

В 1970 году Азимов расстался с женой и почти немедленно стал жить с Джанет Опал Джеппсон (Janet Opal Jeppson), с которой познакомился на банкете 1 мая 1959 года. (До этого они встречались в 1956 году, когда он подписал ей автограф. Азимов вообще не запомнил ту встречу, а Джеппсон сочла его неприятным человеком.) Развод вступил в силу 16 ноября 1973 года, а 30 ноября Азимов и Джеппсон поженились. От этого брака не было детей.

Умер 6 мая 1992 года от СПИДа, которым заразился при операции на сердце в 1983. О том, что причиной смерти был СПИД, стало известно лишь через 10 лет из биографии, написаной Джанет Опал Джеппсон.

    Литературная деятельность

Писать Азимов начал в 11 лет. Он начал писать книгу о приключениях мальчиков, живущих в маленьком городке. Он написал 8 глав, после чего забросил книгу. Но при этом произошёл интересный случай. Написав 2 главы, Айзек пересказал их своему другу. Тот потребовал продолжение. Когда Айзек объяснил, что это пока всё, что он написал, его друг попросил дать почитать книгу, где Айзек прочёл эту историю. С того момента Айзек понял, что он обладает писательским даром, и стал серьёзно относиться к своей литературной деятельности.

Азимов впервые опубликовал рассказ в 1939 году. Это был рассказ «В плену у Весты» (Marooned Off Vesta), принятый к публикации в октябре 1938 года журналом Amazing Stories и опубликованный 10 января 1939.

В 1941 был опубликован рассказ «Приход ночи» (Nightfall) o планете, вращающейся в системе шести звёзд, где ночь наступает раз в 2049 лет. Рассказ получил огромную известность (согласно Bewildering Stories, он был одним из самым известным из когда-либо публиковавшихся рассказов).

В 1968 году Ассоциация Американских Фантастов (Science Fiction Writers of America) объявила «Приход ночи» лучшим из когда-либо написанных фантастических рассказов. Рассказ более 20 раз попадал в антологии, дважды был экранизирован (неудачно) и сам Азимов впоследствии назвал его «водоразделом в моей профессиональной карьере». Малоизвестный до тех пор фантаст, опубликовавший около 10 рассказов (и ещё примерно столько же были отвергнуты), стал знаменитым писателем. Интересно, что сам Азимов не считал «Приход ночи» своим любимым рассказом.

10 мая 1939 года Азимов начал писать первую из своих историй о роботах, рассказ «Робби» (Robbie). В 1941 году Азимов написал рассказ «Лжец» (Liar!) о роботе, умевшем читать мысли. В этом рассказе впервые появляются знаменитые три закона робототехники. Азимов приписовал эти законы Джону У. Кемпбеллу (John W. Campbell), сформулировавшему их в беседе с Азимовым 23 декабря 1940 года. Но Кемпбелл говорил, что идея принадлежала Азимову, он только дал ей формулировку. В этом же рассказе Азимов придумал слово «robotics» (роботика, наука о роботах), вошедшее в английский язык. В переводах Азимова на русский robotics обычно переводят несуществующим словом «роботехника». До Азимова, в большинстве историй о роботах они бунтовали или убивали своих создателей. С начала 1940-х годов, роботы в фантастике подчиняются трём законам роботехники, хотя по традиции ни один фантаст, кроме Азимова, не цитирует эти законы явно.

В 1942 году Азимов начал серию «Основание». Изначально «Основание» и рассказы о роботах относились к разным мирам, и лишь в 1980 году Азимов решил их объединить.

С 1958 года Азимов стал писать гораздо меньше фантастики и гораздо больше научно-популярной литературы. Большинство написанных Азимовым книг являются научно-популярными, причём в самых разных областях. С 1980 он возобновил написание научной фантастики продолжением серии «Основание».

Тремя любимыми рассказами Азимова были «Последний вопрос» (The Last Question), «Двухсотлетний человек» (The Bicentennial Man) и «Уродливый мальчуган» (The Ugly Little Boy), в этом порядке. Любимым романом были «Сами боги».

Статистика

Онлайн всего: 1

Гостей: 1

Пользователей: 0

robotics.ucoz.ru

Три закона робототехники Айзека Азимова

Законы робототехники Айзека Азимова

Три закона робототехники были предложены Айзеком Азимовым в фантастическим рассказе «Хоровод». Фантаст использует их и в остальных рассказах и романах. Абсолютное исполнение трех законов и последствия этого описаны в повести «Зеркальное отражение».

Что такое три закона робототехники

3 закона робототехники – это перечень правил, которые непременно должно выполнять устройство с искусственным интеллектом, дабы не навредить человеку. Правила применяются исключительно в научной фантастике. Однако принято считать, что с разработкой полноценного ИИ, к нему необходимо применять аналогичные правила для соблюдения мер безопасности в робототехнике.

Законы робототехникиЗаконы робототехники

Обозначенные законы звучат так:

  1. Робот не может своими действиями или же бездействием принести вред человеку.
  2. Робот обязан исполнять все команды людей, за исключением тех, которые противоречат Первому Закону.
  3. Робот не может пренебрегать собственной безопасностью и должен о ней заботиться, за исключением тех случаев, когда это противоречит 1-му и 2-му законам.

Как обойти законы робототехники

В отдельных работах писателя три закона робототехники подвергались значительной переоценке. В связи с этим нередко не выполнялся 1-й закон робототехники. Порой в повествованиях робот мог нарушить и 3 правила. Яркими примерами того, как можно обойти закон робототехники, можно назвать такие произведения:

  1. «Первый закон». Повествование о роботике МА-2, отказавшейся защищать человека ради своей «дочки».
  2. «Кэп». Хозяин мешал роботизированной машине творить, за что последняя желала его убить.
  3. «Салли». Люди делали больно робоавто, поэтому последние вполне могли их убивать.
  4. «Робот, который видел сны». Робот Элвекс мог видеть сны, в которых нет первых двух законов, а третий претерпел изменения и говорит о том, что роботизированные создания обязаны защищаться.
  5. «Основание и Земля». На планете Солярия на каждого жителя приходится 1000 роботов. Правила для киборгов на планете изменены так, что роботизированные машины считают людьми исключительно тех, кто разговаривает с местным акцентом. Управление осуществляется только теми людьми, кому имплантированы в мозг специализированные устройства.
  6. «Яко помнишь его». Здесь постулаты для машин изменены существенно. Два робота пришли к выводу, что органическое происхождение не является критерием для того, чтобы считать создание человеком. Они были уверены, что настоящие люди – это совершенные и разумные роботы.
Как обойти законы робототехникиКак обойти законы робототехники

В большинстве рассказов обойти три закона робототехники нельзя. «Здоровый» робот в ситуации, когда заходила речь о нанесении вреда человеку, сталкивался с робоблоком, также именуемом «умственным замораживанием». Мера может быть временной или постоянной зависимо от программного кода.

Нулевой и четвертый законы Айзека Азимова

В разных своих романах Азимов по-разному относится к созданным им законам. Изначально он их трактует как меры безопасности, а позже указывает на необходимость использования их, как запрограммированную частицу позитронного мозга. В середине 80-х писатель сформулировал еще один критерий, четвертый. Его смысл заключается в том, что робот не может причинить зла и навредить человеческому сообществу, а также не должен допустить вреда для него своим бездействием. Переоценив важность этого правила, фантаст перенес его на первое место и назвал Нулевым.

Законы робототехники в шутку

3 закона робототехники шутка

Про 3 закона робототехники шутка построена в виде «додуманных» Азимовым правил. Наиболее смешными среди них можно назвать такие:

  1. Если роботизированный агрегат очень большой и широкий, ему запрещено притворяться холодильником и издавать странные и страшные звуки, если человек открывает его дверцу.
  2. Если посреди ночи постучали в дверь или зазвонил телефон, на них должен реагировать только робот, поскольку человеку в это время все кажется особенно пугающим.
  3. Роботизированному устройству запрещается переключать каналы во время футбольной игры. Также он не должен своим бездействием допустить переключение каналов кем-то другим.
  4. За каждого убитого роботом кота он должен высадить минимум по 2 дерева.
  5. Роботу запрещается стремиться к получению должности выше, чем у человека, который дольше него работает в фирме. У человека может быть семья, которую нужно кормить и обеспечивать, а роботизированная машина ежедневно идет домой и старается обзавестись отношениями с ведерком.
  6. Робот обязан заниматься спортом, дабы быть привлекательным, а также чтобы не смущать своего хозяина ненадлежащим видом.

Правила, придуманные Азимовым, многие ученые считают универсальными и вполне применимыми к реальному искусственному интеллекту, некоторые ученые считают эти постулаты обязательными к программированию ИИ.

Расскажите о нас вашим друзьям в социальных сетях:

mogilev.itlandia.by

Статья - РОБОТЫ - Законы роботов, "Я робот!" Айзека Азимова

 

Первый Закон"Роботы не должны наносить вред здоровью и жизни человека, или своим бездействием допустить, чтобы человеку был причинён вред.

Второй ЗаконРобот должен выполнять приказы человека, если эти приказы не противоречат Первому Закону.

  Третий ЗаконРобот должен заботиться о собственной сохранности до тех пор, пока это не противоречит Первому и Второму Законам.

Международная команда экспертов выработает «кодекс этики» для роботов, которые с каждым днем становятся все более технически оснащенными и, по мнению ученых, вскоре смогут обладать собственным интеллектом. Как сообщают информационные агентства, обсуждение кодекса получило серьезный резонанс на недавно завершившейся конференции Euron (Европейская Сеть Исследований Робототехники) в Генуе, на которой ученые высказали свои опасения в связи с быстрым развитием данной сферы. В общем-то еще лет 20 назад выдающийся американский технолог – и футуролог по совместительству – Эрик Дрекслер в своей книге «Машины создания» определял такой подход, как биошовинизм: «предубеждение, что биологические системы имеют присущее и неотъемлемое превосходство, которое всегда будет давать им монополию на самовоспроизводство и интеллект».

Биологические системы – это мы с вами… Как бы там ни было, но эти самые «биологические системы» рекомендуют придерживаться следующих правил при использовании роботов: 1) действия робота должны находиться под контролем человека; 2) противодействовать незаконному использованию роботов; 3) следить за сохранением секретности данных, полученных роботом, и отчетами о его деятельности; 4) регистрация идентификационного номера для каждого робота.

Директор по науке РосНИИ искусственного интеллекта Александр Нариньяни прокомментировал каждое из перечисленных правил: – «Действия робота должны находиться под контролем человека». Совершенно непонятно, что это значит: явно не контроль каждого шага, хотя иногда и это может потребоваться, например в опасной зоне типа «минного поля»; для интерпретации этого правила нужна типология (или онтология) действий робота в разных контекстах с указанием того, что должно находиться под контролем и в какой степени. «Противодействовать незаконному использованию роботов». Это естественное правило относится ко всему – от ребенка до наркотиков и атомной бомбы. «Следить за сохранением секретности данных, полученных роботом, и отчетами о его деятельности». Тоже естественное правило, поскольку тоже относится ко всем секретным данным, в частности, и полученным роботом. «Регистрация идентификационного номера для каждого робота». И это правило очевидно: пока робот – сложное техническое устройство, то для него регистрация идентификационного номера требуется как для автомобиля или экскаватора; когда он станет достаточно интеллигентен и автономен, то для него потребуется нечто вроде ИНН. Как обычно, во всяких сообщениях вокруг искусственного интеллекта (ИИ) из мухи делают слона. То есть перечисленные правила либо примитивны (2–4), либо плохо определены (1). А называется многообещающе: «этический кодекс общения с роботами», резюмирует Александр Нариньяни. Вполне очевидный скепсис нашего эксперта представляется вполне оправданным. Тем не менее «у нас есть этические обязательства перед машинами с искусственным интеллектом, если мы создадим их, так же как и перед людьми», утверждает Дэниел Денет, американский философ. И, возможно, он не так уж далек от истины… Сетевое агентство MIGnews сообщает, что британские ученые намерены представить на суд экспертов компьютерную систему, способную распознавать настроение и эмоции человека. Программа, заложенная в новое устройство, получает изображение человеческого лица с передающей камеры, и по так называемым «характерным точкам» (кончику носа, бровям, уголкам губ и др.) на лице человека составляет себе представление о настроении исследуемого в данный момент индивидуума, а также о его эмоциональном состоянии. «Эмоциональный» компьютер анализирует комбинации этих движений и по результатам выдает свой вердикт относительно вашего настроения. «Система способна распознавать эмоции у разного типа людей, несмотря на отличительные особенности человеческой внешности, будь то очки, борода и прочее. По нашим данным, одну и ту же эмоцию люди выражают практически одинаково», – отмечает профессор Питер Робинсон из Кембриджского университета.

В Южной Корее обсуждается этический кодекс по защите роботов от жестокого обращения Этический кодекс будет включать в себя стандарты для пользователей и производителей и увидит свет в 2007 году. Его составляла команда из пяти экспертов: футуристов и писателей фантастов.

Правительство Южной Кореи пришло к выводу, что роботостроение является главным двигателем экономики, и вливает миллионы долларов в исследования.

«Правительство планирует установить этические положения, которые будут определять роли и функции роботов, которые вероятно будут обладать высоким интеллектом в скором будущем».

Этические вопросы Южная Корея является одним из ведущих государств в области высоких технологий. Граждане Южной Кореи получают доступ к широкополосному интернету, а также продвинутыми мобильным технологиям намного раньше, чем они появляются на западном рынке.

Правительство Южной Кореи известно также своей поддержкой технологий будущего. Правительство делает прогнозы относительно робототехники: к 2018 году роботы будут заниматься хирургией. В Министерстве связи и информационных технологий считают, что к 2015-2020 году у каждой семьи будет собственный робот.

Отчасти это вызвано тем, что количество пожилых людей в обществе растет, а также пониманием того, что прогресс в области роботостроения идет семимильными шагами.

Этот документ – попытка создать основные законы для будущего. «Представьте себе, что некоторые люди могли бы считать андроидов своими женами или мужьями», - сказала Хью-Янг (Hue-Young) представитель отдела робототехники министерства. «А другие могут пристраститься к взаимодействию с андроидами, как многие сейчас не представляют себе жизнь без интернета».

Положение в других странах. «Новые положения могут отразить три закона робототехники, уже написанные Айзеком Азимовым в его рассказе «Хоровод» в 1942 году», - продолжает Хью. Ключевые мысли будут заключаться в том, что человек должен обладать полным контролем над роботом и накопленной им информацией и препятствовать ее незаконному использованию. В других странах также задумываются о роботизированном будущем. Например, в правительстве Великобритании считают, что через 50 лет робот будет обладать теми же правами, что и человек. В Едином Европейском Пространстве по Исследованию Роботов (European Robotics Research Network) также создают законы, касающиеся использования роботов. Эти этические положения были написаны исследователями, которые считают, что роботостроение вскоре встанет наравне с такими научными дисциплинами как биоинженерия и ядерная физика. Сторонники создания этих законов говорят: «В 21 веке человечество буде сосуществовать с первым в своей истории чужим разумом – разумом роботов». «Это повлечет за собой множество этических, социальных и экономических проблем».

www.adaptive.com.ua


Читайте также
  • Гиперскоростная звезда – более 1.000.000 миль в час
    Гиперскоростная звезда – более 1.000.000 миль в час
  • Астрономы обнаружили самую большую спиральную галактику
    Астрономы обнаружили самую большую спиральную галактику
  • Млечный путь содержит десятки миллиардов планет, схожих с Землей
    Млечный путь содержит десятки миллиардов планет, схожих с Землей
  • Млечный путь разорвал своего спутника на четыре отдельных хвоста
    Млечный путь разорвал своего спутника на четыре отдельных хвоста
  • Найден источник водородных газов для нашей Галактики
    Найден источник водородных газов для нашей Галактики