Правила робототехники: Законы робототехники. Три закона робототехники Азимова

Законы робототехники. Как регулировать искусственный интеллект

Кому принадлежат авторские права на созданные роботом произведения и кто ответит за его поступки?

Скорость — совершенное оружие, сказал недавно Илон Маск, обсуждая финансовые результаты Tesla за третий квартал этого года. Но он имел ввиду отнюдь не скорость своих машин. Речь шла о скорости работы роботов, которые эти машины собирают. Позднее в Твиттере Маск прокомментировал, что уже через несколько лет нам понадобится стробоскоп, чтобы оценить скорость движения роботов.

Скорость развития робототехники и искусственного интеллекта, по всей видимости, переходит на новый уровень. И человечество это понимает — в 2017 году, чтобы не вылететь с трассы, оно приняло национальные и общемировые правила обращения с ней. Проиллюстрирую текущий уровень технологий, и попробую объяснить, почему принятие законов робототехники — неизбежно.

На волне прогресса

По данным Международной Федерации Робототехники, невероятно быстро растет рынок промышленных роботов. В 2016 году их продажи достигли почти 300 000 единиц. Пять лет назад этот показатель был почти вдвое меньше. В результате объем только одного этого рынка составил $13 млрд, а с учетом смежных рынков ПО и компонентов – все $40 млрд.

Уже не первый год завод компании Siemens в Амберге производит один программируемый контроллер в секунду с невероятным уровнем качества — процент брака составляет всего 0,00115%. Достигнуть скорости производства в 12 млн единиц в год одновременно с сохранением качества помогают роботы — 75% операций автоматизировано.

В Великобритании уже несколько лет успешно используют хирургических роботов Da Vincie для борьбы с раком простаты. Их главное отличие от обычных — высочайшая точность, сохранение околооперационных тканей, а также быстрые сроки восстановления. В свежем исследовании рынка хирургических роботов говорится, что среднегодовой прирост этого рынка в 2017-2021 годах составит 10,53%.

  • Власть над миром: чем закончится гонка за искусственным интеллектом

Уже давно никого не удивляет робот-пылесос, как и робот-мойщик окон. Благодаря удешевлению компонентов и производству целого ряда моделей в Китае их стоимость стала серьезно падать, и они хлынули на рынок. Достаточно посмотреть на финансовые показатели только одного производителя, чтобы понять насколько вырос рынок домашних роботов в последние несколько лет — они уже продаются миллионами штук.

Робот Cheetah компании Boston Dynamics еще в 2012 году показал скорость движения, сопоставимую с рекордами Усейна Болта, а их антропоморфный робот Atlas, в 2017 уже научился делать сальто назад. Но технические достижения — это, пожалуй, не самое впечатляющее. Поражает скорость проникновения робототехники во все аспекты нашей жизни.

Наконец, все чаще компании стали объявлять о наборе роботов в штат. Известный всем пример российского банка, который попытался заменить юристов «искусственным интеллектом», а в некоторые отделения уже поставил роботов для обслуживания посетителей, — одна из ярких, но далеко не единственных иллюстраций.

За робота ответишь?

Скорость внедрения новых технологий действительно поражает! Хорошо это или плохо, вопрос риторический. Однако с развитием робототехники активизировалась новая проблема – регулирования.

Действительно, чем больше появляется роботов (особенно, таких) и киберфизических систем, тем больше вопросов вызывает применение к ним действующих норм. Постулаты Азимова о непричинении вреда человеку и человечеству умными роботами уже давно не вызывают эмоций у большинства специалистов.

Вопросы, ответы на которые хотелось бы получить уже сейчас: есть ли ограничения на использования военных роботов? Кому принадлежат авторские права на созданные роботом произведения и кто ответит за его поступки, например ущерб, принесенный автопилотируемой машиной?

В применение «искусственного интеллекта» в финтехе уже нужно вмешаться, или стоит подождать еще нескольких сбоев бирж? Как будем защищать имплантируемые роботизированные механизмы и что делать, если имплантат в сердце есть, а компании-производителя уже нет?

Ну и наконец, проблема сильного искусственного интеллекта (ИИ, сравнимый с человеческим мозгом по уровню интеллекта) все-таки реальна и нам уже нужно контролировать его разработки, или разберемся как-нибудь потом?

Самозарождение правил

Первые подходы к таким проблемам обозначили в Южной Корее. В 2007 году там анонсировали разработку Этического устава роботов (документа с тяжелой судьбой; о его существовании за пределами Кореи практически ничего так и неизвестно, хотя корейская версия, как оказалось, похоже все-таки существует). Затем там же приняли закон о содействии развитию умных роботов.

Но в последние годы проблема регулирования вышла на новый уровень. Обозначим основные подходы.

Частные законы. Множество экспертов высказывало свои мнения о том, как должны регулироваться отношения между роботами и людьми. Например, Три закона робототехники фантаста Айзека Азимова, или Десять законов ИИ Сатьи Наделлы, руководителя компании Microsoft. Даже Карел Чапек, создатель слова «робот», упоминает в R.U.R. некую Лигу Гуманности, борющуюся за права роботов на нормальное отношение со стороны людей.

Позиция сообществ. Иногда высказанные предложения о регулировании поддерживаются целым сообществом экспертов. Хороший пример — 23 Азиломарских принципа искусственного интеллекта, разработанных и опубликованных в январе 2017 года под эгидой Future of Life Institute. Их подписало уже почти 4 000 экспертов и специалистов. Ученые предлагают направить свои усилия на создание управляемого, надежного и полезного ИИ, отказаться от «гонки вооружений» на основе ИИ и подумать о безопасности разработок, а также ответственности самих разработчиков.

Предложения, которые высказываются экспертами, по существу являются примером первых попыток саморегулирования, когда частные лица или компании разрабатывают правила до того, как государство разработает законы, обязательные для выполнения. Одним из характерных атрибутов саморегулирования является объединение в ассоциации. Их правила становятся обязательными для ее членов. Примером такой ассоциации является Partnership on AI — партнерство, участниками которого являются Amazon, Apple, Google, IBM, Facebook, Microsoft и другие. Оно создано в 2017 году и о конкретных правилах говорить пока рано, но мы видим один из уникальных примеров объединения крупнейших компаний мира (к слову, конкурентов в ряде областей) вокруг проблемы развития искусственного интеллекта.

Регулирование на национальном уровне

На протяжении 2017 года мы увидели целый ряд примеров того, как государство пытается регулировать киберфизические системы.

Например, в Германии принят закон, призванный открыть дорогу автономному транспорту. Законодатели выделили категорию автомобилей «со значительно или полностью автоматизированной функцией вождения» и разрешили водителями отвлекаться от ситуации на дороге. Одновременно, правда, удвоили лимит ответственности за причиненный вред и ввели правило обязательной установки «черного ящика».

В Китае представили многостраничный План развития технологий искусственного интеллекта нового поколения. К 2030 году в нем поставлены амбициозные цели. Китайские технологии ИИ должны стать ведущими в мире, а сам Китай – крупнейшим инновационный центром. При этом обозначено намерение создать первые законы в этой сфере уже к 2020 году.

А Эстония и вовсе стала первой страной в мире, которая легализовала правила передвижения роботов-курьеров.

Международное регулирование

После громкого анонсирования Корейского устава роботов десять лет на международном уровне в каком-то смысле было затишье. Но 2017 год изменил и это.

В начале года Европарламент принял на рассмотрение проект Резолюции о правовом статусе роботов. Он состоит из нескольких разделов: общие соображения о роботах и их классификация, вопросы, касающиеся ответственности, а также определения кодекса этики для разработчиков робототехники.

А в конце года уже в России был представлен проект Модельной конвенции о робототехнике и искусственном интеллекте. Конвенция призвана объединить основные подходы к регулированию и инициировать принятие первого международного акта в этой сфере. В изначальной редакции конвенции 42 правила, посвященных безопасности роботов, а также правилам их создания и использования. Отдельные разделы содержат положения, направленные на регулирование разработок в сфере искусственного интеллекта, а также на ограничения в применении военных роботов.

В конвенции также высказывается призыв создать наднациональный институт регулирования на уровне ООН. Ранее Европарламент также выступил со схожим предложением на уровне Европы — создать Европейское агентство по робототехнике и ИИ.

Полагаю, что в 2018 году скорость регулирования перейдет на новые уровень. Тенденция очевидна: нас ждут новые законы робототехники, которые, возможно, уже в этом году воплотятся в национальные и международные законы.

Правила — Лига Роботов — Нижний Новгород

Skip to Main Content

ПРАВИЛА ПОЛЬЗОВАНИЯ АБОНЕМЕНТОМ

  1. При оформлении абонемента ознакомьтесь с Правилами посещения секции робототехники и заполните регистрационные данные.
  2. Абонементы оформляются у преподавателя Секции робототехники, который знакомит с условиями их приобретения.
  3. Абонемент является пропуском на занятия своей группы. В случае отсутствия абонемента преподаватель вправе не допустить ученика к занятиям.
  4. Посещать занятия по абонементу может только его владелец.
  5. В случае досрочного прекращения пользования абонементом, стоимость оплаченных занятий не возвращается.
  6. В случае болезни ученика необходимо своевременно сообщить об этом преподавателю. Пропущенные оплаченные занятия будут перенесены на другое время только в случае предъявления преподавателю медицинской справки о болезни.
  7. Оплаченные занятия, пропущенные без уважительной причины, на последующий срок не переносятся и их стоимость не возмещается. В случае невозможности посещения занятий по уважительным причинам (например, участие в соревнованиях) ученик обязан предупредить администратора не менее, чем за день до занятия и предоставить официальный документ на пропущенное занятие.

ПРАВИЛА ПОСЕЩЕНИЯ СЕКЦИИ РОБОТОТЕХНИКИ

  1. Ученик обязан соблюдать общественный порядок и чистоту и выполнять Правила внутреннего распорядка проекта «Лига роботов».
  2. Одежда, пакеты, сумки сдаются в гардероб. Ценные вещи можно повесить на вешалку в комнате проведения занятий. За утерю ценных вещей администрация ответственности не несёт.
  3. При входе в комнату для занятий необходимо переключить мобильный телефон на беззвучный режим.
  4. Во время проведения занятий не следует мешать работе товарища, занимать его рабочее место.
  5. При возникновении любого вопроса не искать самостоятельного выхода из трудной, критической ситуации, а обратиться за разъяснением к преподавателю или администратору.
  6. Нарушение учеником настоящих правил влечёт за собой закрытие абонемента на срок, устанавливаемый руководством для каждого отдельного случая. За грубое или систематическое нарушение правил абонемент может быть закрыт без права возобновления.
  7. Родители могут ожидать окончания занятий в специально отведенной для этой комнате, если она предусмотрена. Присутствие родителей на занятиях не допускается.
  8. Во время занятий Исполнитель имеет право вести фото и видеосъемку и использовать материалы в рекламных целях Инженерного сообщества «Лига роботов».

ПРАВИЛА ПОЛЬЗОВАНИЯ ОБОРУДОВАНИЕМ

  1. Ученики должны бережно относиться к предоставляемому оборудованию. Запрещается самовольное изменение любых аппаратных или программных конфигураций компьютера, а также запуск не оговорённых преподавателем программ. В случае возникновения трудностей с использованием оборудования за помощью необходимо обратиться к преподавателю.
  2. Преподаватель выдаёт ученику комплект оборудования (конструктор) под личную ответственность ученика под роспись на бланке учета наборов. В конце занятия комплект оборудования принимает преподаватель.
  3. В случае нехватки деталей в комплекте нужно предупредить преподавателя.
  4. Персональные компьютеры можно использовать только в образовательных целях.
  5. Нельзя меняться деталями с другом, соседом или брать детали из чужого комплекта.
  6. Запрещается выносить оборудование или детали конструктора из комнаты для занятий.
  7. Запрещается употреблять пищу или напитки в комнате для занятий.
  8. Приобретение абонемента означает, что Вы согласны с правилами пользования абонементом.
  9. Абонемент приобретается заблаговременно до начала занятий. Первый Абонемент на цикл (семестр) приобретается до начала первого занятия в цикле, второй и третий абонемент цикла приобретаются в последний день действия уже приобретенного абонемента.
  10. Абонемент приобретается на каждые 4 (четыре) занятия цикла.
  11. Абонемент действителен в течении срока, указанного на нем.
  12. На каждом занятии на абонементе отмечается дата посещения данного занятия. Если абонемент не был принесен на занятие, преподаватель делает соответствующую отметку в электронном журнале. И отмечает данное занятие в следующий раз. Отметка о посещении на абонементе является справочной информацией.
  13. Все посещения отмечаются преподавателем в журнале посещений, который ведется в электронном виде.

Прокрутка вверх

Нужны ли нам законы о робототехнике?

Содержание

Право и революцииКомпьютеры и социальные измененияНовые технологии и новые законыРоботы и правила дорожного движенияПраво и наше будущее

Заберут ли роботы наши рабочие места? Этот вопрос задают во многих отраслях, в том числе и в юридической. И не зря — роботы становятся все более и более вездесущими: теперь машины производят автомобили, выполняют сложные операции и даже пишут статьи о спорте и бизнесе.

О чем не так часто спрашивают, так это о том, как, возможно, потребуется изменить закон, чтобы отразить эти достижения в области технологий. Эд Уолтерс из Fastcase обсуждал эту тему на Clio Cloud Conference, предположив, что возможность изменять законы наряду с достижениями в области технологий может означать разницу между захватывающим будущим и антиутопическим кошмаром.

Вот краткий обзор того, что он сказал:

Закон и революции

Закон отстал от основных технологических изменений в прошлом, что привело к ужасным последствиям. Например, такие вопросы, как рабство и детский труд, стали более заметными во время промышленной революции в результате того, что закон отставал от изменений в промышленности и обществе.

«Были социальные изменения, изменения в промышленности и в бизнесе, но не было изменений в законодательстве, которые сопровождали их», — сказал Эд. «Прошло около 100 лет, прежде чем мы отменили рабство, прежде чем мы приняли первые законы о заработной плате и рабочем времени, прежде чем мы ввели выходные дни, прежде чем мы сказали, что дети не могут работать на фабриках».

Конечно, промышленная революция была не так уж и плоха — фактически, она привела к «американскому веку», но были ненужные страдания, вызванные отставанием закона от изменений в промышленности.

Ло тоже отставал в начале информационной эры.

«Все законы, касающиеся информационной революции, которые касались Интернета, отставали от технологий», — сказал Эд. «Сейчас мы живем в этом мире с необоснованными обысками, сетевым нейтралитетом и серьезными эпистемологическими вопросами о том, является ли Тако Белл человеком в соответствии с оригинальным прочтением конституции, или могут ли корпорации иметь те же права, что и люди».

Чтобы добиться лучших результатов в будущем, закон должен адаптироваться быстрее.

Компьютеры и социальные изменения

Третья революция — революция робототехники — происходит быстрее, чем мы думаем.

— Тише, роботы вокруг нас, — сказал Эд. «Это свидетельство того, насколько распространены эти машины в нашей жизни, что мы их больше не видим. Мы как бы просто принимаем их как должное».

Роботы становятся все более распространенными, но они также становятся умнее. И, как указал Эд, это улучшение не линейное, а экспоненциальное.

Рассмотрим его пример с компьютерами, играющими в шахматы. В 1989 году российский гроссмейстер Гарри Каспаров легко победил компьютер Deep Thought. В 1996 году Deep Thought превратилась в Deep Blue, которую Гарри все же ловко победил в матче из шести игр. Всего через год, в 1997-м, ситуация изменилась: Гарри одержал одну победу над Deep Blue, но сыграл вничью или проиграл остальные игры в их матче из шести игр.

«Эта [первая] партия была исторической, потому что это был последний раз, когда лучший в мире шахматист-человек мог победить лучшего в мире шахматиста-машины, — сказал Эд.

Чтобы привести более непосредственный пример, Эд объяснил, что в настоящее время наши самые большие и лучшие компьютеры имеют примерно вычислительную мощность мозга крысы, но к 2026 году «один компьютер будет иметь большую вычислительную мощность, чем любой из когда-либо живших вместе взятых». ».

Это может означать огромные перемены в обществе, требующие вдумчивых и активных изменений в законодательстве.

Новые технологии и новые законы

«Как мы регулируем роботов?» Эд спросил: «Как наш закон относится к этим надвигающимся социальным изменениям?» Для начала он предложил изучить опыт юридического сообщества, пытающегося регулировать киберпространство за последние 10–20 лет.

Интернет изменил мир, каким мы его знаем, но когда он был еще новым, некоторые не видели смысла в том, чтобы придумывать новые законы для его регулирования. Еще на первой конференции по праву и киберпространству в Чикагском университете в 1996 году основной докладчик судья Фрэнк Истербрук призвал молодых юристов не создавать новые законы для Интернета, утверждая, что нам не нужны новые законы для каждой новой вещи в мире. .

Однако у Ларри Лессига, главного докладчика следующего дня конференции, была совершенно другая точка зрения. Как объяснил Эд:

Смысл разговора [Ларри] был, конечно, в том, что судья Истербрук прав. Это то, что делает обычное право. Вы всегда применяете существующий закон к новым фактам. Обычное право растет с течением времени.

Однако иногда новые факты настолько новы, что приходится создавать исключения. Иногда новые факты настолько отличаются от других, что, применяя старый закон к новым фактам, вы получаете совершенно неверный результат.

Например, в реальном мире, если 10-летний ребенок пойдет в магазин и попытается купить пиво, продавец автоматически откажет в покупке.

В реальном мире есть функция самоаутентификации. Вы можете сказать, кто кто. Но это не правда в Интернете. В интернете нет никакой самоидентификации. И поэтому, если вы применяете законы, которые применяются к покупке алкоголя в сети 7-Eleven, и просто требуете, чтобы кто-то подтвердил, что ему 18 лет, люди могут очень легко обойти это. Поэтому вам может понадобиться новый режим регулирования в Интернете.

Другими словами, Интернет настолько необычен, что нам нужен новый набор законов, чтобы управлять им.

Роботы и правила дорожного движения

Роботы тоже исключительны?

«Ответ, конечно, никогда не будет «да, роботы исключительны», — сказал Эд. «Вы смотрите на них по очереди. Вы берете каждый отдельный набор фактов и пытаетесь выяснить, что произойдет, если мы применим существующее общее право в этом мире? Нравится нам результат или нет?»

Это также вопрос о том, поддерживаются ли все еще ценности, которые должен был поддерживать первоначальный закон. Например, Эд рассказал о проблемах, возникающих, когда законы, касающиеся автокатастроф, применяются к беспилотным автомобилям.

Автомобильные аварии основаны на идее, что мы компенсируем людям эти травмы, когда кто-то причиняет им вред по неосторожности. Центральная идея этого механизма заключается в том, что кто-то виноват. Кто-то ошибается. Кто-то поступает небрежно. Если их нет, то и травмы не будет.

Что ж, мы приближаемся к миру, где беспилотные автомобили или программное обеспечение могут стать причиной аварии, но совершенно без вины… если мы применим здесь принципы деликтного права, нам не понравится результат. Человек, который пострадал не по своей вине, не получает компенсации в этом мире, потому что нет небрежности.

Как объяснил Эд, многие ученые-правоведы предполагают, что в мире беспилотных автомобилей нам может понадобиться схема страхования без вины. Все платили бы немного больше по страховке, но у нас было бы меньше несчастных случаев.

Закон и наше будущее

Помимо беспилотных автомобилей, законодателям необходимо будет рассмотреть более широкие вопросы, например, как применять уголовное право к машинам и как предать машины правосудию (вероятно, их не волнует, что их отключат из-за пять лет в тюрьме для роботов). Это может показаться проблемами из научно-фантастического романа, но Эд заверил аудиторию, что они вполне реальны и с ними нужно разобраться как можно раньше.

— Это выпуски за 2016, 2017 и 2018 годы, — сказал Эд. «Многие из наших законов придется изменить, и быстро».

Есть много вопросов, на которые нужно ответить, когда речь идет о законе будущего. Но сегодняшние законодатели могут помочь нам подготовиться к лучшему завтра.

«Возможно, мы находимся на пороге того времени, когда машины помогут нам стать еще больше, чем мы сами, и оказать огромное влияние на наше будущее так, как мы никогда раньше не могли», — сказал Эд. «Этот новый американский век действительно может стать нашим, если мы доживем до него. Если мы будем действовать достаточно быстро, если мы не создадим гигантский лаг между этими масштабными изменениями в промышленности, в программном обеспечении, в оборудовании, в робототехнике, в культуре — если наши законы смогут успеть за этими изменениями и вовремя. Это может быть наш новейший американский век».

Хотите посмотреть выступление полностью? Посмотреть презентацию Эда можно здесь:

Мы опубликовали эту запись в блоге в мае 2017 г. Последнее обновление: .

Подразделяется на:
Технология

Законы о роботах: 5 новых правил, которые могут спасти человеческие жизни (по крайней мере, по телевизору)

От Battlestar Galactica до Terminator экранные роботы никогда не были выше правил. Могут ли наши новые законы робототехники держать их в узде?

Технология

2 августа 2018 г.

Галаад Амит

Как вы должны себя вести, если вы робот? По словам писателя-фантаста Айзека Азимова, есть три простых правила: не позволять людям причинять вред, подчиняться приказам и защищать себя — в таком порядке приоритета.

Азимов впервые изложил эти три закона робототехники в своем рассказе 1942 года « Обход », но с тех пор они стали основными элементами жанра, нарушаемыми искусственным интеллектом во всем: от «Доктор Кто» до «Чужой 9». 0092 . Однако, несмотря на то, что они продолжают доминировать в разговоре, законы Азимова быстро устаревают.

В конце концов, мы живем в мире, который быстро наполняется настоящими роботами: они водят наши машины, выполняют наши медицинские процедуры, влияют на наши выборы и угрожают лишить нас работы. Сможет ли новый свод законов защитить нас?

Имея это в виду, мы составили пересмотренный свод законов, который поможет нам сосуществовать с искусственным интеллектом в 21 ст веке (дополнительную информацию см. в разделе «Законы о роботах: зачем нам нужен кодекс поведения для ИИ – и быстро»). Будут ли они по-прежнему интересны научной фантастике? Внимание, спойлеры следуют…

Реклама

Gary Hutzel/NBC/NBCU Photo Bank via Getty первый закон: робот не может причинить вред человеку или позволить человеку причинить вред, если он не находится под наблюдением другого человека .

 

MGM/Stanley Kubrick Productions/Kobal/REX/Shutterstock

В 2001: A Space Odyssey бортовой компьютер HAL 9000 обрекает экипаж на смерть по причинам, которые остаются неясными. Это противоречило бы нашему второму закону: робот должен уметь объяснять себя . Не обязательно устно или даже явно, но с помощью прозрачного кодирования, чтобы сделать его действия и мотивы ясными.

 

Columbia/Kobal/REX/Shutterstock

Роботы-женщины из Stepford Wives 1975 года созданы для воплощения сексистского идеала женского поведения. Если мы хотим, чтобы машины будущего не увековечивали наши собственные человеческие предрассудки, важно научить их подниматься над мелкими стереотипами, которые определяют так много наших собственных мыслей и действий. Говоря словами нашего третьего закона: робот должен относиться ко всем людям одинаково .

 

PictureLux / eyevine

Одноименный тематический парк, в котором происходит действие телешоу Westworld , основан на сложных роботах, неотличимых от людей. Фактически, по мере развития сериала различие становится все более размытым. Ничего из этого нельзя было бы разрешить с нашим четвертым законом: робот не должен выдавать себя за человека .