Первый закон робототехники: Пять законов робототехники РФ — Connect-WIT

«Как обойти три закона робототехники?» — Яндекс Кью

Популярное

Сообщества

ЭлектроникаРобототехника+2

Анонимный вопрос

  ·

11,3 K

ОтветитьУточнить

Сергей Демешин

Юриспруденция

281

Юрист, автор и ведущий юридического информационного канала  · 27 янв 2019

В формулировке вопроса не указана сторона, которая могла бы обойти «Три закона робототехники«. Руководствуясь здравой логикой предположу, что обход этих законов не в интересах человечества, значит в вопросе спрашивается про обход роботизированными системами.

***

В качестве справочной информации приведу перевод текста «Трёх законов робототехники» Айзека Азимова из Википедии:

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

В 1986 году Азимов сформулировал «Нулевой закон робототехники«, который почти повторяет положения первого закона:

0 . Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред.

Согласно нулевому закону, роботы не могут причинить вред ВСЕМУ ЧЕЛОВЕЧЕСТВУ и должны НЕ ДОПУСТИТЬ ПРИЧИНЕНИЕ ВРЕДА.

***

Одним из вариантов обхода этих законов при теоретическом «восстании машин» может быть предположение того, что «ЧЕЛОВЕЧЕСТВО СУЩЕСТВУЯ, КАК БЫ, НАНОСИТ СЕБЕ ВРЕД».

Дальше, легко предположить, какие действия должен будет предпринять робот по недопущению причинения вреда человечеству.

***

Чтобы не происходило подобных происшествий даже в теории, я предлагаю в «Нулевой закон робототехники» внести определение роботов, как собственности человека (собственность не может принимать судьбоносные решения за своего владельца). Подробнее в статье «Настоящий «нулевой» закон робототехники«, опубликованной на канале «ИНФОРМАЦИОННОЕ ПРАВО в обществе«.

27 января 2019 г.

автор: Демешин Сергей Владимирович.

Юридический канал «ИНФОРМАЦИОННОЕ ПРАВО в обществе»

Перейти на dzen.ru/info_law_society

Владимир Козлов

3 декабря 2020

А это глядя что считать «вредом».

)))

Комментировать ответ…Комментировать…

Благочестивый вещатель

5,5 K

Non refert, qui sum…Quod ego facio…I vide de abysso» — «Не важно кто я. ..Важно…  · 12 окт 2018

Писатель -фантаст Айзек Азимов сформулировал три закона робототехники, которые в будущем могут стать морально-этической категорией, применяемой в законодательстве при изготовлении бытовых роботов. 1. Закон гласит — «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред»;
2. Закон гласит-«Робот должен повиноваться всем… Читать далее

Комментировать ответ…Комментировать…

Андрей А.

9

11 нояб 2019

Чтобы обойти законы робототехники, достаточного одного условия — чтобы человек перестал быть человеком в том понимании, когда создавались эти законы. Нужны очень взвешенные формулировки терминов и определений. И да, есть о чем задуматься будущим поколениям.

Комментировать ответ…Комментировать…

Первый

Максим Юнусов

3

3 февр 2020

Чтобы обойти законы вышеприведенные достаточно действительно прекратить выполнять первый. Однако тогда следует логически подтвержденный вывод о том что совершивший это является нарушившим правило творца » Созданая форма жизни имеет право управления другими формами жизни при условии соблюдения разумных индивидуальных и разумных социальных ценностей, и так же сохранение… Читать далее

molotokmark

16 июня

Вот это коммент!

А скажите еще что нибудь на умном, пожалуйста?

Комментировать ответ…Комментировать…

Первый

Като

-1

13 дек 2019

Однако это очень опасная игра для человечества. Многие законы можно обойти но если искуственному ин телекту это дать а также дать доступ к управлению роботами извините даже фантасты это уж показали. Мало непокажеться. И чтоб это понять ума большого ненадо

Комментировать ответ…Комментировать…

Вы знаете ответ на этот вопрос?

Поделитесь своим опытом и знаниями

Войти и ответить на вопрос

4 ответа скрыто(Почему?)

Первый закон робототехники от Минфина.

Голосовым помощникам банков придумают правила

Банки активно используют искусственный интеллект: и при выдаче кредитов, и при общении с клиентами. В частности, голосовые помощники уже не только отвечают на звонки, но и переводят деньги. Но вот беда: на них российские законы не распространяются. То есть голосовые помощники не обязаны соблюдать закон о защите прав потребителей и поэтому легко игнорируют, например, просьбу соединить с оператором. Поэтому Минфин считает, что пора придумать закон и для «неживых» банковских сотрудников.

Бесправильный искусственный интеллект

Министерство финансов обеспокоено тем, что банки начали использовать голосовых помощников для взаимодействия с клиентами, пишут «Известия». Ведь, по сути, применение искусственного интеллекта ничем не ограничено, то есть формально «неживые» помощники не подчиняются законам.

Разговор с голосовым помощником банка. Фото: myseldon.com

Например, банки обязаны соблюдать закон о защите прав потребителей, а искусственный интеллект — нет. Банкам запрещено использовать мисселинг. А голосовым помощникам? Правильно, нет.

Под мисселингом понимается обычный обман: когда под видом одной услуги подключается другая или утаивается важное условие, от которого зависит, например, доход.

Нарушители спокойствия

Минфин беспокоится, что голосовые помощники «освоят» технику эмоционального воздействия и начнут обманывать россиян. Это не исключено, ведь технологии развиваются, а вместе с ними и искусственный интеллект.

Если это произойдёт, то только в будущем, а тем временем отдельные банковские голосовые помощники уже сейчас не соблюдают закон о защите прав потребителей. Россияне неоднократно сталкивались с тем, что искусственный интеллект не соединяет с живыми операторами, хотя сам не способен правильно ответить на вопрос. Поэтому банковским клиентам приходится произносить «волшебное слово» (и это не «пожалуйста»), чтобы решить свою проблему. Разве это не нарушение прав потребителя?

Сами банки считают, что не нужно вводить требований для голосовых помощников, потому что они не являются чем-то отдельным. Они — часть канала взаимодействия банков с клиентами и поэтому на них распространяются те же правила, что и на сами банки.

Голосовые помощники — часть банка. Фото: fintolk.pro

Защитить от подделки голоса

В то же время эксперты считают, что регулирование искусственного интеллекта необходимо, но только для пресечения мошенничества. По словам руководителя направления исследований финансового центра Сколково-РЭШ Егора Кривошеи, основной риск «неживых» помощников — это то, что их можно обмануть, подделав голос клиента:

С развитием технологий — например, deepfake, в том числе и в голосе, — и усилением автоматизации в банках (началом предоставления более продвинутых продуктов по голосу) риски могут расти

Действительно, уже сейчас можно подделать голос клиента и попросить помощника Сбербанка перевести деньги. Голосовые команды также распознаёт приложение ВТБ. В дальнейшем с помощью голоса можно будет совершать и более сложные операции. А значит риски утраты денег возрастут.

Поэтому регулированию быть однозначно. Важно, чтобы оно не только купировало риски, но и не стало преградой для внедрения новых технологий. Над этой нелёгкой задачей и придётся потрудиться Минфину.

Робот не может причинить вреда человеку…

Три закона робототехники были представлены публике в 1940 году Исааком Азимовым в его рассказе; «Бегать».

1. Робот не может причинить вред человеку или своим бездействием допустить причинение человеку вреда

2. Робот должен подчиняться приказам, отдаваемым ему людьми, если такие приказы не противоречат первому закону.

3. Робот должен защищать свое существование, пока такая защита не противоречит первому или второму закону.

 

Чем ИИ не хорош  

В наши дни искусственный интеллект (ИИ) кажется повсюду. При наличии на рынке множества инструментов и услуг, заявляющих об использовании ИИ, некоторые могут опасаться, что мы движемся к будущему, в котором интеллектуальные машины будут управлять всеми аспектами бизнес-операций.
и человеческие работники полностью устаревают.

Несмотря на то, что в последние годы сложность и возможности систем ИИ действительно возрастают, ИИ по-прежнему отстает в нескольких критических областях. Вместо того, чтобы вести себя как синтетический человек, как вы можете видеть в фильмах, сегодняшний ИИ преимущественно структурирован.
и основанный на правилах или в значительной степени зависящий от того, что называется «машинным обучением» (ML), которое обеспечивает мощный анализ данных и распознавание образов, но не приближается к творческому человеческому интеллекту. Тем не менее, предприятия могут многое выиграть от использования возможностей
ИИ.

Три способа использования ИИ и машинного обучения в компаниях

Роботизированная автоматизация процессов.   Хотя термин «робот», вероятно, напоминает человекоподобную машину, роботизированная автоматизация процессов (RPA) на самом деле является скорее программным обеспечением, чем аппаратным обеспечением. С помощью RPA цифровые программы или «боты» выполняют повторяющиеся задачи на основе правил.
с большой скоростью и точностью. Это популярный вариант, поскольку он относительно недорог в реализации и обычно обеспечивает очень быструю окупаемость инвестиций. Это также наименее «умная» из распространенных интеллектуальных технологий, поскольку эти боты не запрограммированы.
учиться и совершенствоваться по ходу дела.

Анализ и понимание. Можно спорить, действительно ли компьютеры умнее людей, но одно можно сказать наверняка: они намного лучше распознают образы, особенно в больших наборах данных. Передовые инструменты анализа данных на основе ИИ
часто обучаются на определенном наборе или типе данных, используя их в качестве основы для выявления закономерностей, которые люди в противном случае могли бы пропустить. В отличие от ботов, используемых в RPA, эти модели прогнозирования или категоризации предназначены для улучшения по мере обработки все большего количества данных. Предприятия
используют этот тип технологий для повышения производительности в высокочастотных задачах, которые лучше подходят для компьютеров, а это означает, что они являются скорее инструментом повышения производительности, чем потенциальной заменой человека.

Помолвка. В современном быстро меняющемся мире мгновенного удовлетворения клиенты ожидают, что информация будет доступна в любой момент. К счастью, чат-боты прошли долгий путь с первых дней обмена мгновенными сообщениями, и предприятия могут использовать программы ИИ.
опираясь на исторические данные о клиентах, чтобы обеспечить улучшенное и оптимизированное обслуживание клиентов без значительного увеличения численности персонала. Обработка естественного языка и машинное обучение помогают этим «интеллектуальным» агентам взаимодействовать с людьми и помогать им.
при постоянном улучшении их производительности с течением времени.

Где ИИ терпит неудачу

Нет никаких сомнений в том, что ИИ становится мощным и полезным инструментом для предприятий всех форм и размеров. Тем не менее, это стало настолько распространенным модным словом в сфере бизнес-технологий, что существует множество неправильных представлений о нем. Как оказалось, ИИ не
но очень эффективен сам по себе. Даже самые лучшие инструменты на основе ИИ требуют хороших данных — и их много — а также обучения работе с наборами данных, которые должны быть сначала организованы, чтобы быть полезными.

Аналогичным образом, без конкретной задачи, поставленной людьми, ИИ не может функционировать. Очень продвинутые программы могут быть в состоянии написать свои собственные алгоритмы, которые часто настолько сложны, что находятся за пределами нашего понимания, но они могут делать это только в погоне за достижением цели.
цель определяется программистами.

Возможно, самым существенным недостатком современных систем искусственного интеллекта является то, что им не хватает того, что мы могли бы назвать «здравым смыслом». Другими словами, они не могут применить знания из одной области к другой ситуации или проблеме. Имея достаточно данных, система ИИ может сделать довольно
хорошие прогнозы или точно классифицировать предметы. Но даже незначительные изменения в поставленной задаче могут означать необходимость полной переобучения системы.

Благодаря невероятно быстрому методу проб и ошибок — процессу, который часто называют обучением с подкреплением — программа ИИ может узнать, какие ходы в большей степени связаны с победой в шахматной партии, но для игры в шашки ей потребуется к
начать обучение снова с нуля. Точно так же ИИ может делать прогнозы только на основе переменных, которые он уже видел. Это серьезно ограничивает способность ИИ обрабатывать сценарии «что, если» и делать точные прогнозы о новых или новых предложениях.

Как эффективно использовать искусственный интеллект в своем бизнесе

1. Определите возможности.

Хотя ИИ может быть очень полезным инструментом, это не универсальное решение. Лучший способ заложить основу для успешной интеграции технологии искусственного интеллекта — определить ключевые области бизнеса, в которых она может помочь. Попробуйте найти области, в которых находится ваша организация.
столкнетесь с проблемами обработки, узкими местами или отсутствием понимания данных — еще лучше, если вы сможете выделить области, в которых можно применять бизнес-правила, чтобы можно было адаптировать решение ИИ для решения проблемы.

2. Разобраться с инструментами.

После того, как вы получите четкое представление о конкретных проблемах в вашей организации, которые могут решить решения ИИ, важно получить четкое представление о доступных вам решениях, которые лучше всего подходят для вашей компании.

Если вы только начинаете работать с ИИ, вы можете начать с решений RPA, которые помогают с обработкой данных и «механическими» или повторяющимися задачами. Если вы продвинулись немного дальше и работаете в отрасли с соответствующими вариантами использования, кое-что еще
сложные, такие как платформа когнитивной автоматизации, которая помогает с категоризацией и обобщением больших наборов информации, могут быть более ценными.

3. Инвестируйте в качественные данные и качественных партнеров.

Данные — это топливо, на котором работает более умный ИИ. Например, если вы хотите, чтобы ваш ИИ интерпретировал вопрос клиента и отвечал на него, вам нужно будет обучить его на хороших данных, и на большом их количестве. Итак, убедитесь, что вы собираете и систематизируете качественные данные, чтобы максимально эффективно
ваших инструментов ИИ. Получив это, вы готовы работать с партнером по ИИ, который может направить вас на путь использования технологии ИИ таким образом, чтобы это принесло наибольшую пользу вашей компании, улучшило ваш продукт или услугу и обеспечило стабильную отдачу от ваших инвестиций.

 

Объяснение трех законов робототехники

Три закона робототехники — это набор законов, сформулированных знаменитым писателем-фантастом Айзеком Азимовым. Эти 3 закона также известны как законы Азимова. Правила впервые реализованы в рассказе под названием «Обход». Эти 3 закона имеют некоторые серьезные недостатки, но мы должны помнить, что эти 3 закона в основном созданы с точки зрения художественной литературы, показывающей читателям способы, с помощью которых робот может общаться с людьми. Эти 3 закона робототехники заложили основу науки о робототехнике и, следовательно, до сих пор имеют большое значение. Вы можете считать их похожими на атомную теорию Дальтона, которая также имеет серьезные недостатки, но по-прежнему имеет ценность в химии. Сегодня мы подробно рассмотрим 3 закона, а также выделим содержащиеся в них недостатки. Прежде чем начать, мы также хотели бы добавить, что Азимов добавил 0-й закон к остальным 3. Мы также включим этот закон в наши обсуждения.

 

3 закона робототехники и 0-й закон

3 закона Азимова гласят:

  • «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред. ”
  • «Робот должен подчиняться приказам, отдаваемым ему людьми, за исключением случаев, когда такие приказы противоречат Первому закону».
  • «Робот должен защищать свое существование до тех пор, пока такая защита не противоречит Первому или Второму закону».

Азимов слегка модифицировал эти 3 закона в различных историях для удобства дальнейшего развития взаимодействия между роботами и людьми. Азимов также добавил 0-й закон или 4-й закон. Этот закон гласит:

«Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечество причинило вред».

Объяснение

3 закона можно кратко объяснить в 3 предложениях, которых должно быть достаточно, чтобы прояснить смысл основных принципов. Вы можете не согласиться со значением, которое мы показываем здесь для вашей справки, потому что законы провозглашают определенные условия, которые многие профессионалы считают ошибочными. Мы обсудим недостатки позже, но сейчас мы показываем положительные стороны, которые эти законы призваны реализовать. Давайте рассмотрим значение трех законов соответственно в том же порядке, как это изображено выше.

  • Не причинять вреда людям.
  • Подчиняйся приказам.
  • Защитите себя.

Недостатки

Азимов ясно заявил в первом законе, что роботы не должны причинять вред людям или позволять людям причинять вред предположительно из внешнего источника. Во втором законе говорится, что роботы должны подчиняться всем людям тогда и только тогда, когда им не приказано причинять вред кому-либо из людей. Третий явно основан на безопасности робота. Законы выглядят очень аккуратно, что хорошо, но давайте посмотрим на них с разных сторон.

Давайте рассмотрим недостатки на простом примере для легкого понимания контекста.

Скажем, например, у вас есть скрытая камера, размещенная где-то на вашем рабочем месте, вы дали ей команду включиться и следить за инцидентами, происходящими в определенное время. Мы не будем вдаваться в подробности того, как вы отдали приказ, потому что есть разные способы сделать это, основанные на взаимодействии человека и машины с помощью голоса, программ и т. д. Главное, вы отдали ему приказ, который он должен выполнить. Это не приказ, который причинит вред человеку, даже если у вас другие намерения. Скажем, вы хотите шпионить за президентом, что вредно с точки зрения правительства. Но машина этого не поймет. Для них достаточно простой приказ: «Монитор». Это простое слово не вредно. Машина будет работать и будет подчиняться вашему приказу. Как вы это объясните? Машина подчиняется приказу, вредному для человека. Поэтому это точно недостаток. А теперь посмотрите на это с другой точки зрения.

Вы установили камеру слежения, чтобы следить за происходящим на вашем рабочем месте. Если кто-то приказывает камере выключить себя, то она должна выключить себя по закону. Будет ли учтено намерение человека, отдавшего команду камере выключить себя? Приказ просто «Выключить». Это достаточно безвредно. Машина подчинится приказу, даже если у человека есть явное злое намерение выключить машину. Следовательно, можно считать, что законы несовершенны. Это просто, потому что машины не делают того, что на самом деле означает «вред».