Искусственный интеллект чем опасен: Чем опасен искусственный интеллект

Содержание

Чем опасен искусственный интеллект

Стивен Хокинг, Илон Маск и другие ученые и изобретатели считают искусственный интеллект угрозой жизни на Земле. Директор Института будущего человечества в Оксфорде и автор бестселлера Superintelligence: Paths, Dangers, Strategies Ник Бостром рассказал Правила жизни, почему сверхразум может уничтожить людей всего за одну секунду.

Правила жизни

Теги:

мнение

В качестве иллюстраций использованы фотографии Луизы Уиттон (Luisa Whitton), которая провела несколько месяцев в лаборатории одного из самых известных робототехников в мире — японского инженера Хироси Исигуро.

В узких областях возможности искусственного интеллекта уже намного превышают человеческие: Гарри Каспаров, чемпион мира по шахматам, проиграл программе Deep Blue в далеком 1997 году. Поисковые запросы, распознавание речи, логистика — в этом специализированные системы лучше нас. Но на самом деле они пока не обладают мышлением как таковым, и никто сейчас не знает, когда будет изобретен настоящий искусственный интеллект.

Большинство ученых сходятся во мнении, что вероятность его появления до середины XXI века — 50%. Прогноз очень абстрактный, и очевидно, что произойти это может как намного раньше, так и гораздо позже. В 1940-х годах, когда были созданы первые компьютеры, ученые предсказывали появление машин, превосходящих интеллект человека, к 1960-м. Прогноз не сбылся, но уже тогда математик Ирвинг Джон Гуд, работавший во время Второй Мировой войны над взломом немецких шифров в команде Алана Тьюринга, предупреждал: «Сверхумная машина — последнее изобретение, которое предстоит сделать человечеству, при условии, конечно, что эта машина будет нас слушаться и укажет, как ее контролировать». Другими словами, первый же искусственный интеллект, созданный людьми, с большой вероятностью будет стремиться к неограниченному овладению ресурсами, а его цели никак не будут связаны с благом человечества. Если учесть, что люди состоят из полезных ресурсов — таких, например, как организованные в определенном порядке молекулы — и сами зависят от множества земных ресурсов, одним из наиболее вероятных последствий появления искусственного интеллекта станет полное исчезновение человечества. Представьте, что перед носителем сверхразума зачем-то встала задача максимально увеличить производство скрепок для бумаги. В этой связи у него будут как минимум две причины уничтожить человечество: чтобы мы не смогли ему каким-то образом помешать и чтобы использовать наши тела как сырье.

В Голливуде любят изображать носителей искусственного интеллекта на службе у диктаторов, но мне кажется, вероятность этого крайней мала: он не будет делать никаких различий между людьми, и репрессивные правительства такие же потенциальные его жертвы, как угнетаемое ими большинство. Другой голливудский штамп — эпическая битва отряда храбрецов с армией роботов. Почему-то Терминатор и ему подобные носители сверхразума никогда не могут осуществить свой зловещий замысел мгновенно, им надо подождать, пока раскрутится захватывающий сюжет. А там навстречу обязательно выйдет горстка героев, каждый из которых обладает уникальным навыком, и вместе они уничтожат безупречный, на первый взгляд, механизм, в котором обнаружится роковой изъян. Вынужден разочаровать: в реальной жизни гораздо более вероятным представляется сценарий, при котором мы все умрем за одну секунду, а Земля превратится в один большой компьютер, миллиарды лет занятый ему одному понятными вычислениями.

Уже сейчас некоторые системы, у которых еще нет своей воли или способности планировать действия, практически невозможно выключить. Где находится кнопка выключения интернета, например? Я уж не говорю о том, что носитель искусственного интеллекта наверняка предусмотрит попытку его отключения и заранее предпримет необходимые меры безопасности. И уж точно он сможет найти методы влияния на физический мир, чтобы манипулировать волей людей, заставить их работать на себя или предоставить доступ к созданию собственной инфраструктуры.

Не стоит ли нам прекратить разработку искусственного интеллекта в таком случае? К сожалению, это риторический вопрос. Не существует одной организации, которая бы целенаправленно вела эту работу и подчинялась какому-то правительству. Наоборот, по всему миру разбросано множество частных компаний и лабораторий, огромное количество людей занимаются программным обеспечением, нейробиологией, статистикой, дизайном интерфейсов — их исследования тем или иным образом вносят свой вклад в создание искусственного интеллекта. В этом смысле человечество похоже на ребенка, играющего с бомбой — вернее, это целый детский сад, и в любой момент какой-нибудь придурок может нажать не на ту кнопку. Так что когда вы читаете о новых открытиях в области интеллектуальных систем, страх здесь более адекватная реакция, чем эйфория от открывающихся перспектив. Но правильнее всего в данном случае как можно скорее сосредоточиться на задачах, которые помогут уменьшить риски, исходящие от сверхразума, еще до его появления. Одним из возможных решений является создание профессионального сообщества, которое объединило бы бизнесменов, ученых и исследователей, а также направило технологические исследования в безопасное русло и выработало средства контроля над их результатами.

За свою историю человечество не научилось управлять своим будущим. Разные группы людей всегда стремились к достижению собственных целей, часто вступая конфликт с друг с другом. Глобальное технологическое и экономическое развитие до сих пор не является плодом сотрудничества и стратегического планирования, и едва ли не последнее, что оно учитывает — это судьба человечества. Представьте себе школьный автобус, поднимающийся в гору и набитый разыгравшимися детьми. Это человечество. Но если посмотреть на место водителя, мы увидим, что оно пусто. Совершая новое открытие, мы каждый раз берем из корзины мяч и кидаем его о стену — пока что это были только белые мячи и серые мячи, но однажды может попасться и черный мяч, который, ударившись о стену, вызовет катастрофу. Смысл в том, что у нас не будет шанса спрятать черный мяч обратно в корзину: как только открытие совершается, его невозможно отменить.

Опасен ли искусственный интеллект

Отношение к искусственному интеллекту неоднозначное: с одной стороны – прогресс, с другой – угрозы. Разберемся, какие опасности несут в себе искусственный интеллект, цифровизация, роботизация и автоматизация.

ManGO! Games

Любой инструмент, в том числе и искусственный интеллект, содержит в себе как опасность, так и возможности. Все зависит от того, кто его применяет и зачем.

Угрозы искусственного интеллекта

Лишние люди

При текущей экономической модели приход техники приводит к идее максимизации прибыли под лозунгом «Машина вместо человека». Люди становятся лишними. Что будут делать сотрудники тех профессий, которые будут заменены искусственным интеллектом?

Рост неравенства

В мире существует проблема неравенства, искусственный интеллект может ее усилить: кто обладает технологиями – получает преимущество. Определенное сообщество, владеющее технологиями, применяет их на массах, не имеющих таких возможностей.

Монополия на искусственный интеллект

Искусственный интеллект может сосредоточиться в одних руках. У него будет такое же преимущество, каким сейчас для стран является ядерное оружие. Смогут ли люди оставаться независимыми?

Потеря контроля над искусственным интеллектом

Пока неясно, как именно будет применяться искусственный интеллект и как будет проходить его развитие. Известна способность искусственного интеллекта к саморазвитию. Если это так, то возможен риск выхода роботов из-под контроля человека.

Влияние на свободу выбора человека

Находясь в сети, человек оставляет информационный след: обработка больших объемов информации позволяет создавать портрет человека, направляя на него индивидуальную рекламу, в том числе и политическую, что влияет на свободу выбора. Это может перейти в полный контроль над сознанием человека – манипулирование, зомбирование и все то, чего многие боятся. А контроль этот будет осуществлять тот, кто обладает технологиями, которые мы называем искусственным интеллектом.

К чему ведет цифровизация?

Последствия этого мы уже наблюдаем. Люди активно цифровизируются. Кто не в пространстве цифровизации – тот первым оказывается за бортом. Это касается не только карьеры, но и всех сторон жизни.

В мире есть значительные группы населения, у которых жизнь не связана с постоянным пребыванием в сети. Они вне возможностей, которые есть у остальных. 

Как не остаться без работы?

Чтобы не остаться за бортом, и не оставить без дела большую часть человечества – нужно соответствовать цифровым вызовам и не терять человеческого обличия. Важно работать с ценностями. 

Как быть с риском неограниченной свободы искусственного интеллекта? Действительно, выстраивая искусственный интеллект по своему подобию, можно получить нечто более сильное, что может уничтожить нас самих, как это бывает в фантастических фильмах или книгах фантастов. Инструмент может начать доминировать над своим создателем.

Не стоит всецело доверять машине, нужен контроль и постоянный анализ, чтобы не допустить отклонения от курса. Вряд ли кому-нибудь хотелось бы запустить неконтролируемые процессы в свою жизнь, в компанию, в мир в целом.

Как мы планируем использовать роботов?

Стоит вспомнить произведения Айзека Азимова, где писатель вывел законы робототехники: робот не должен причинять вред человеку, должен заботиться о собственной безопасности, если это не противоречит первому закону, должен выполнять указания человека. Однако сейчас, когда мы вплотную подошли к роботизации, становится понятно, что это слишком обобщенные правила, универсальные категории.

Мир ценностно и цивилизационно неоднороден. Кому будет подчиняться робот, если, например, между народами возникнет конфликт? В условиях ценностно расколотого мира, робот – инструмент в руках одних и угроза для других.

Многое зависит от вектора. В чем людям помогут роботы? Что человек считает прогрессом прямо сейчас? Мы движемся в направлении духовного развития или удовлетворения потребностей? Если речь о втором пути, то каждый из нас придет к деградации: роботы будут работать, а люди — паразитировать. Возможно, человечество зайдет в тупик. К тому же искусственный интеллект может оказаться чище и гуманнее людей. 

Юридическая сторона вопроса 

В юридической литературе западных стран в связи с идеями роботизации сейчас обсуждается вопрос прав человека на искусственный интеллект.

Сейчас фантастика становится реальностью, и уже перестают удивлять размышления такого типа: «Если робот производит других роботов, кому они принадлежат? Что если роботам начнут давать права, как и человеку? Чем отличается человек без души от робота?». 

Это вопросы без ответов, которые заставляют задуматься о том, насколько важно грамотно использовать технологии. Важно понимать, что у искусственного интеллекта нет того, что мы называем духовностью, он не наделен эмоциями, нравственностью, не может любить. Наверное, не стоит относиться к роботу, как к человеку, а человека ставить в один ряд с машиной.

Что думают об ИИ известные и знаменитые?

Стивен Хокинг считал искусственный интеллект реальной угрозой жизни на Земле. Илон Маск, а также ряд ученых и изобретателей, соглашаются с этим. Директор Института будущего человечества в Оксфорде Ник Бостром выразил мнение, что ИИ способен уничтожить мир буквально за секунду.

Однако не стоит забывать, что сейчас речь идет о технологиях: того самого сверхразума, способного уничтожить планету, пока не существует. Ученые считают, что к середине нынешнего столетия он может появиться с вероятностью 50%.

Правда, появление такой сверхумной машины прогнозировали еще в прошлом веке. Прогноз не сбылся, но тогда, размышляя над подобной вероятностью, математик Ирвинг Джон Гуд, который во время Второй Мировой войны работал в команде расшифровки немецких шифров, предупреждал: «Сверхумная машина — последнее изобретение, которое предстоит сделать человечеству, при условии, конечно, что эта машина будет нас слушаться и укажет, как ее контролировать».

Сможем ли мы контролировать искусственный интеллект?

В фильмах искусственный интеллект служит диктаторам, но вероятность такого сценария слишком мала: вряд ли сверхразум будет как-нибудь различать людей. Сложно представить и длительную борьбу между людьми и роботами. Более вероятный сценарий – все исчезнет в мгновение, превратившись в один большой компьютер, занятый ему одному понятными вычислениями.

Как не допустить подобного? Наверное, помнить, что важно все контролировать: ничего не начинать, не запускать и не включать, пока не будет уверенности в возможности выключить, остановить, скорректировать.

Однако сейчас, в момент, когда технологии стремительно развиваются, человек больше привыкает «пробовать боем», жить в бета-версии. Если подумать, то сегодня уже есть некоторые системы, не обладающие самообучением, способностью планировать действия и принимать решения, которые практически невозможно выключить. Так, например, никто не знает, где находится кнопка выключения интернета.

Возникает логичный вопрос: думают ли создатели искусственного интеллекта о том, как смогут выключить его, будут ли предусмотрены меры безопасности?

Кто занимается разработкой универсального ИИ? 

Занимаясь созданием общего искусственного интеллекта, команды специалистов озвучивают полезные для человечества цели. Общий, универсальный, интеллект призван решать тупиковые проблемы, ускорять и оптимизировать нашу работу.

Когда мы говорим о сверхразуме и его опасности, речь идет об общем искусственном интеллекте (ОИИ). Термин звучит как Artificial general intelligence (General AI, AGI).

На данный момент удалось создать только «узкий искусственный интеллект» (УИИ), который выполняет конкретные задачи. Он запрограммирован на точечные функции, помогает автоматизировать работу. Причем многие подобные операции он умеет делать не хуже человека.

ОИИ будет решать задачи иначе. Это будет система, способная делать собственные выводы и самообучаться. Она сможет даже осознавать саму себя. Работая над созданием общего ИИ, люди мечтают, что он будет использовать общемировые знания для решения каждого конкретного вопроса, учитывая при этом контекст, анализируя все возможные виды информации.

Кто же ведет разработку общего ИИ? Недавно такой проект запустили в Google. Компания собирается обучить ИИ большому количеству навыков, после чего он станет универсальным, способным осознавать и обрабатывать все поступающие сигналы при любом способе передачи информации. Сейчас эта разработка находится только на начальной стадии. В рамках этой работы протестированы нейросети и опробованы на проектах Google Switch Transformer, Gshard и других.

В Китае уже создан чип Tianjic, который использует методы нейробиологии и схему имитации человеческого мозга. Чип повторяет функции мозговых нейронов, способных воспринимать информацию и конвертировать ее в нервные импульсы для импульсной нейросети и обратно.

Работают над общим искусственным интеллектом и в IBM. Компания разработала сверхточную нейронную сеть на нейроморфическом чипе TrueNorth. Сеть имитирует мозг человека, потребляя в тысячи раз меньше энергии, чем современные процессоры.

Что будет, когда в одной из лабораторий все-таки родится ОИИ?

Человечество похоже на ребенка, играющего с бомбой. Какая эмоция должна возникать у нас, когда мы узнаем о новых открытиях в области интеллектуальных систем – страх или радость от открывающихся перед человечеством перспектив?

Что делать человечеству? Учиться управлять своим будущим. То же самое нужно делать компаниям и каждому из нас.

Материал подготовлен компанией ManGO! Games

Маск назвал самый опасный для человечества искусственный интеллект

  • Миллиардеры

Принадлежащий Google стартап DeepMind разрабатывает искусственный интеллект, который на данный момент является самым опасным для человечества, считает Илон Маск. Он допускает, что уже через пять лет компьютерное мышление превзойдет человека

Искусственный интеллект, который разрабатывает принадлежащая Google компания DeepMind, вызывает большие опасения, заявил гендиректор Tesla Илон Маск в интервью The New York Times. Маск — давний сторонник контроля за разработкой компьютерного мышления, и, по словам миллиардера, DeepMind на данный момент беспокоит его больше всего.

«Даже сама суть искусственного интеллекта, которую они создают, — из тех, что уничтожают всех людей во всех играх. Это буквально сюжет «Военных игр»», — отметил Маск. «Военные игры» — американский фильм 1983 года. По сюжету, хакер взламывает компьютерную сеть военных США и запускает искусственный интеллект, который чуть не приводит к ядерной войне между СССР и США.

Работа над искусственным интеллектом для автомобилей Tesla показала миллиардеру, что человечество уже приближается к ситуации, когда искусственный интеллект будет существенно умнее, чем люди. «Я думаю, что до этого меньше пяти лет. Это не значит, что все пойдет к чертям через пять лет. Просто ситуация станет нестабильной или странной», — прогнозирует Маск. По его словам, многие умные люди недооценивают искусственный интеллект, потому что даже не думают, что компьютер может быть столь же умным, как человек. «Это гордыня и очевидная ошибка», — категоричен бизнесмен.

Новый образ роботов: как пандемия изменила отношение к искусственному интеллекту

Маск высказывает мысли об опасности искусственного интеллекта как минимум с 2014 года. Тогда он написал в Twitter, что человечеству нужно быть крайне осторожным с технологией, которая «потенциально более опасна, чем ядерное оружие».

August 3, 2014

Выступая в Массачусетском технологическом институте, Маск говорил, что это может быть самой существенной угрозой человечеству: «С искусственным интеллектом мы призываем демона. Во всех историях про парня с пентаграммой и святой водой этот парень уверен, что сможет контролировать демона. Не выходило». В 2018-м он отмечал, что сейчас искусственный интеллект во многом сосредоточен в руках крупнейших компаний: «Есть очень сильная концентрация мощи искусственного интеллекта, в особенности в Google/DeepMind. Я очень хорошо отношусь к [сооснователю Google] Ларри Пейджу и [основателю DeepMind] Демису Хассабису, но я думаю, что необходим некоторый независимый надзор».

Диагноз по селфи. Как пять российских ученых научили искусственный интеллект оценивать людей по фото

DeepMind — британская программа, которая занимается разработкой искусственного интеллекта. Google купила ее в 2014 году. Компания известна тем, что разработала программное обеспечение, которое смогло обыграть человека в го и в шахматы. Илон Маск был одним из ранних инвесторов DeepMind. Он говорил Vanity Fair, что его инвестиции были не попыткой заработать на компании, а скорее возможностью следить за тем, как развивается искусственный интеллект. Как описывал журнал, Маск однажды впервые встретился с Хассабисом в США. Маск ему заявил, что занимается самой важной задачей человечества — межпланетной колонизацией. Хассабис возразил, что это он занят самой важной задачей — разработкой искусственного интеллекта. Тогда Маск возразил, что это одна из причин необходимости колонизировать Марс — чтобы иметь запасной плацдарм на случай, если компьютеры восстанут против людей. Хассабис парировал, что искусственный интеллект попросту последует за людьми на Марс.

Деньги из будущего: как и зачем россияне инвестируют в SpaceX Илона Маска

В 2018 году Маск, Хассабис и DeepMind публично пообещали не разрабатывать, не производить и не использовать роботов для убийства людей.

August 12, 2017

Мысли визионера: все изобретения Илона Маска

7 фото

  • Ринат Таиров

    Редакция Forbes

#Илон Маск
#искусственный интеллект

Рассылка Forbes

Самое важное о финансах, инвестициях, бизнесе и технологиях

7 рисков искусственного интеллекта, о которых вы должны знать

В марте 2018 года на технологической конференции South by Southwest в Остине, штат Техас, основатель Tesla и SpaceX Илон Маск выступил с дружеским предупреждением: куртка-бомбер с пушистым воротником и старый загривок: «ИИ гораздо опаснее ядерного оружия».

Никакой фиалки, особенно когда дело доходит до мнений о технологиях, откровенный Маск повторил версию этих предчувствий искусственного интеллекта и в других условиях.

«Я действительно очень близок… к переднему краю ИИ, и это меня чертовски пугает», — сказал он аудитории SXSW. «Он способен на гораздо большее, чем кто-либо знает, и скорость улучшения экспоненциальна».

Риски искусственного интеллекта

  • Потеря работы из-за автоматизации
  • Нарушения конфиденциальности
  • «Дипфейки»
  • Алгоритмическая предвзятость, вызванная неверными данными0011 Автоматизация вооружений

Маск далеко не одинок в своих крайне скептических (кто-то может сказать, резко паникёрских) взглядах. Годом ранее покойный физик Стивен Хокинг был столь же откровенен, когда сказал аудитории в Португалии, что влияние ИИ может быть катастрофическим, если его быстрое развитие не будет строго контролироваться с этической точки зрения.

«Если мы не научимся готовиться к потенциальным рискам и избегать их, — объяснил он, — ИИ может стать худшим событием в истории нашей цивилизации».

Учитывая количество и размах непостижимо ужасных событий в мировой истории, это действительно о чем-то говорит.

И на случай, если мы недостаточно убедительно дошли до сути, научный сотрудник Стюарт Армстронг из Института будущего жизни назвал ИИ «риском исчезновения», если он выйдет из-под контроля. По его словам, даже ядерная война находится на другом уровне разрушения, потому что она «уничтожит лишь относительно небольшую часть планеты». То же самое с пандемиями, «даже в их более опасной форме».

Маск обсуждает свой страх перед ИИ

«Если ИИ выйдет из строя и 95 процентов людей будут убиты, — сказал он, — то оставшиеся пять процентов вскоре исчезнут. Поэтому, несмотря на свою неопределенность, у него есть определенные черты очень серьезных рисков».

Как именно ИИ мог оказаться в такой опасной точке? Ученый-когнитивист и писатель Гэри Маркус поделился некоторыми подробностями в ярком эссе журнала New Yorker 2013 года. Он писал, что чем умнее становятся машины, тем больше могут меняться их цели.

«Как только компьютеры смогут эффективно перепрограммировать себя и последовательно улучшать себя, что приведет к так называемой «технологической сингулярности» или «интеллектуальному взрыву», нельзя просто игнорировать риски, связанные с тем, что машины могут перехитрить людей в битвах за ресурсы и самосохранение.

Похожие материалыБудущее ИИ: как искусственный интеллект изменит мир

 

Опасен ли искусственный интеллект?

По мере того, как ИИ становится все более изощренным и вездесущим, голоса, предупреждающие о его нынешних и будущих ловушках, становятся все громче. Будь то растущая автоматизация определенных профессий, гендерные и расовые предубеждения, возникающие из-за устаревших источников информации, или автономное оружие, которое действует без человеческого контроля (и это лишь некоторые из них), тревога изобилует на ряде фронтов. И мы все еще находимся на очень ранних стадиях.

Опасен ли искусственный интеллект?

Техническое сообщество давно обсуждает угрозы, исходящие от искусственного интеллекта. Автоматизация рабочих мест, распространение фальшивых новостей и опасная гонка вооружений на базе ИИ были предложены в качестве некоторых из самых больших опасностей, исходящих от ИИ.

Разрушительный сверхразум — он же искусственный общий интеллект , созданный людьми и ускользающий от нашего контроля, чтобы сеять хаос — находится в отдельной категории. Это также то, что может или не может быть реализовано (теории различаются), так что на данный момент это меньший риск, чем гипотетическая угроза — и постоянно вырисовывающийся источник экзистенциального страха.

Вот некоторые из способов, которыми искусственный интеллект представляет серьезную опасность:

 

Автоматизация работы

Автоматизация работы обычно рассматривается как наиболее неотложная задача. Это уже не вопрос , заменит ли ИИ определенные виды работ, а вопрос , в какой степени . Во многих отраслях — особенно, но не только в тех, чьи работники выполняют предсказуемые и повторяющиеся задачи — прорыв идет полным ходом. По данным 2019 г.Согласно исследованию Brookings Institution, 36 миллионов человек работают на должностях, «сильно подверженных» автоматизации, а это означает, что вскоре не менее 70 процентов их задач — от розничных продаж и анализа рынка до гостиничного бизнеса и работы на складе — будут выполняться с использованием ИИ. В еще более новом отчете Brookings делается вывод о том, что рабочие места белых воротничков на самом деле могут подвергаться наибольшему риску. Согласно отчету McKinsey & Company за 2018 год, больше всего пострадают афроамериканцы.

«Причина, по которой у нас низкий уровень безработицы, который на самом деле не охватывает людей, которые не ищут работу, в значительной степени заключается в том, что эта экономика создала рабочие места в сфере услуг с более низкой заработной платой», — известный футурист Мартин Форд. сказал Встроенный. — Не думаю, что это продолжится.

По мере того, как роботы с искусственным интеллектом становятся умнее и ловчее, добавил он, те же самые задачи будут требовать меньше людей. И хотя это правда, что ИИ создаст рабочие места, неустановленное количество которых остается неопределенным, многие из них будут недоступны для менее образованных членов перемещенной рабочей силы.

«Если вы переворачиваете гамбургеры в «Макдоналдсе» и появляется больше автоматизации, подойдет ли вам одна из этих новых вакансий?» — сказал Форд. «Или, вероятно, новая работа требует большого образования или обучения или, может быть, даже внутренних талантов — действительно сильных навыков межличностного общения или творчества, — которых у вас может не быть? Потому что это то, в чем, по крайней мере, пока компьютеры не очень хороши».

Джон К. Хейвенс, автор книг Heartificial Intelligence: Embracing Humanity и Maximizing Machines , опровергает теорию о том, что ИИ создаст столько же или даже больше рабочих мест, сколько заменит.

Около четырех лет назад, по словам Хэвенса, он брал интервью у главы юридической фирмы о машинном обучении. Этот человек хотел нанять больше людей, но он также был обязан добиться определенного уровня прибыли для своих акционеров. Он обнаружил, что программное обеспечение стоимостью 200 000 долларов может заменить десять человек, получающих зарплату по 100 000 долларов каждый. Это означало, что он сэкономит 800 000 долларов. Программное обеспечение также повысит производительность на 70 процентов и устранит примерно 95 процентов ошибок. Хейвенс сказал, что с чисто ориентированной на акционеров, единой конечной точки зрения «нет никаких юридических причин, по которым он не должен уволить всех людей». Будет ли ему от этого плохо? Конечно. Но это не относится к делу.

Даже профессии, требующие ученых степеней и дополнительной подготовки после окончания колледжа, не застрахованы от смещения ИИ. На самом деле, как сказал технологический стратег Крис Мессина, некоторые из них вполне могут быть уничтожены. ИИ уже оказывает значительное влияние на медицину. По словам Мессины, на очереди юриспруденция и бухгалтерский учет, причем первый готов к «массовым встряскам».

«Подумайте о сложности контрактов и действительно погрузитесь в них и поймите, что нужно для создания идеальной структуры сделки», — сказал он. «Многие адвокаты читают огромное количество информации — сотни или тысячи страниц данных и документов. Очень легко что-то упустить. Таким образом, ИИ, способный прочесать и всесторонне предоставить наилучший возможный контракт для результата, которого вы пытаетесь достичь, вероятно, заменит многих корпоративных юристов».

Бухгалтеры тоже должны подготовиться к большой смене, предупредил Мессина. Как только ИИ сможет быстро прочесывать кучу данных и принимать автоматические решения на основе компьютерных интерпретаций, аудиторы-люди могут стать ненужными.

Подробнее об автоматизации работы с помощью ИИ. Копирайтинг с искусственным интеллектом: почему письменные работы безопасны множество потенциальных рисков. В февральской статье 2018 года под названием «Вредоносное использование искусственного интеллекта: прогнозирование, предотвращение и смягчение последствий» 26 исследователей из 14 учреждений (академических, гражданских и отраслевых) перечислили множество других опасностей, которые могут причинить серьезный вред — или, как минимум, , посеять мелкий хаос — менее чем за пять лет.

«Злонамеренное использование ИИ, — писали они в своем 100-страничном отчете, — может угрожать цифровой безопасности (например, посредством обучения преступников машинам для взлома или социальной инженерии жертв с человеческим или сверхчеловеческим уровнем производительности), физической безопасности (например, не- государственные субъекты, использующие потребительские дроны в качестве оружия), и политическая безопасность (например, посредством слежки, профилирования и репрессий, направленных на устранение конфиденциальности, или посредством автоматизированных и целенаправленных кампаний по дезинформации)».

В дополнение к своей более серьезной угрозе, Ford сосредоточен на том, как ИИ может отрицательно повлиять на конфиденциальность и безопасность. Ярким примером, по его словам, является «оруэлловское» использование Китаем технологии распознавания лиц в офисах, школах и других местах. Но это только одна страна. «Целая экосфера» компаний специализируется на подобных технологиях и продает их по всему миру.

О чем мы пока можем только догадываться, так это о том, станет ли эта технология когда-либо нормализованной. Как и в случае с Интернетом, где мы беспечно жертвуем своими цифровыми данными на алтарь удобства, не покажется ли когда-нибудь круглосуточный мониторинг с анализом ИИ справедливым компромиссом для повышения безопасности и безопасности, несмотря на его гнусную эксплуатацию злоумышленниками?

— Авторитарные режимы используют или собираются использовать его, — сказал Форд. «Вопрос в том, насколько сильно он вторгается в западные страны, демократии и какие ограничения мы на него накладываем?»

«Авторитарные режимы используют или собираются использовать… Вопрос в том, насколько сильно он вторгается в западные страны, демократии и какие ограничения мы на него накладываем?»

По словам Форда, искусственный интеллект также приведет к появлению гиперреалистичных «личностей» в социальных сетях, которых будет очень трудно отличить от реальных. Развернутые дешево и в больших масштабах в Twitter, Facebook или Instagram, они вполне могут повлиять на выборы.

То же самое касается так называемых аудио- и видеодипфейков, созданных путем манипулирования голосами и изображениями. Последний уже набирает обороты. Но первое, по мнению Форда, окажется чрезвычайно проблематичным. Используя машинное обучение, подмножество ИИ, участвующее в обработке естественного языка, можно манипулировать аудиозаписью любого политика, чтобы создать впечатление, будто этот человек высказывает расистские или сексистские взгляды, хотя на самом деле он ничего подобного не говорил. Форд добавил, что если качество клипа будет достаточно высоким, чтобы обмануть широкую публику и избежать обнаружения, это может «полностью сорвать политическую кампанию».

И достаточно одного успеха.

С этого момента, отметил он, «никто не знает, что реально, а что нет. Так что это действительно приводит к ситуации, когда вы буквально не верите своим глазам и ушам; вы не можете полагаться на то, что исторически мы считали лучшим доказательством… Это будет огромной проблемой».

Законодатели, хотя часто и не особо разбираются в технологиях, хорошо осведомлены и настаивают на поиске решений.

Идти глубжеКак распознать технологию дипфейков

 

Предвзятость ИИ и усиление социально-экономического неравенства

Еще одним поводом для беспокойства является усиление социально-экономического неравенства, вызванное потерей рабочих мест из-за ИИ. Наряду с образованием работа уже давно является драйвером социальной мобильности. Однако, когда это определенный вид работы — предсказуемый, повторяющийся вид, который склонен к захвату ИИ — исследования показали, что те, кто оказывается в дураках, гораздо менее склонны получать или искать переподготовку по сравнению с теми, кто занимает более высокие должности. у кого больше денег. (Опять же, не все в это верят.)

Различные формы предвзятости ИИ тоже вредны. Выступая недавно в New York Times, профессор компьютерных наук из Принстона Ольга Русаковская сказала, что это выходит далеко за рамки пола и расы. Помимо данных и алгоритмической предвзятости (последняя из которых может «усилить» первую), ИИ разрабатывается людьми, а люди по своей природе предвзяты.

«А.И. исследователи — это в первую очередь люди мужского пола, принадлежащие к определенной расовой демографии, выросшие в высоких социально-экономических условиях, в первую очередь люди без инвалидности», — сказал Русаковский. «Мы довольно однородное население, поэтому широко мыслить о мировых проблемах сложно».

В той же статье исследователь Google Тимнит Гебру сказал, что корень предубеждений скорее социальный, чем технологический, и назвал таких ученых, как она, «одними из самых опасных людей в мире, потому что у нас есть эта иллюзия объективности». Она отметила, что научная область «должна быть направлена ​​на то, чтобы попытаться понять социальную динамику мира, потому что большая часть радикальных изменений происходит на социальном уровне».

Не только технологи бьют тревогу по поводу потенциальных социально-экономических ловушек ИИ. Наряду с журналистами и политическими деятелями высказывается и Папа Франциск — и он не просто освистывает Санктуса. На встрече в Ватикане в конце сентября под названием «Общее благо в цифровую эпоху» Франциск предупредил, что ИИ обладает способностью «распространять тенденциозные мнения и ложные данные, которые могут отравить общественные дебаты и даже манипулировать мнениями миллионов людей, ставит под угрозу те самые институты, которые гарантируют мирное гражданское сосуществование».

«Если бы так называемый технический прогресс человечества стал врагом общего блага, — добавил он, — это привело бы к печальному регрессу к форме варварства, продиктованной законом сильнейшего».

Большая часть проблемы, по словам Мессины, заключается в погоне частного сектора за прибылью превыше всего. Потому что «это то, что они должны делать», — сказал он. «И поэтому они не думают о том, что здесь лучше всего? Что будет иметь наилучший возможный результат?»

«Ментальность такова: «Если мы можем это сделать, мы должны это попробовать; посмотрим, что получится», — добавил он. «И если мы сможем заработать на этом деньги, мы сделаем целую кучу этого». Но это не уникально для технологий. Так было всегда».

 

Автономное оружие и потенциальная гонка вооружений с использованием ИИ

Не все согласны с Маском в том, что ИИ опаснее ядерного оружия, включая Ford. Но что, если ИИ решит запустить ядерных бомб или, скажем, биологическое оружие — без вмешательства человека? Или что, если противник манипулирует данными, чтобы вернуть управляемые ИИ ракеты туда, откуда они прибыли? Обе возможности. И то и другое было бы катастрофой. Более 30 000 исследователей искусственного интеллекта/робототехники и других лиц, подписавших открытое письмо по этому вопросу в 2015 году, определенно так думают.

«Ключевой вопрос для человечества сегодня — начать ли глобальную гонку вооружений ИИ или не допустить ее начала», — написали они. «Если какая-либо крупная военная держава будет продвигать разработку оружия с искусственным интеллектом, глобальная гонка вооружений практически неизбежна, и конечная точка этой технологической траектории очевидна: автономным оружием завтра станут автоматы Калашникова.

В отличие от ядерного оружия, для его производства не требуется дорогое или труднодоступное сырье, поэтому оно станет повсеместным и дешевым для массового производства всеми значительными военными державами. Это будет лишь вопросом времени, когда они появятся на черном рынке и в руках террористов, диктаторов, желающих лучше контролировать свое население, полевых командиров, желающих провести этническую чистку и т. д. Автономное оружие идеально подходит для таких задач, как убийства, дестабилизация народов, подчиняя себе население и выборочно убивая определенную этническую группу. Поэтому мы считаем, что военная гонка вооружений с использованием искусственного интеллекта не принесет пользы человечеству. Есть много способов, с помощью которых ИИ может сделать поля сражений более безопасными для людей, особенно для гражданских лиц, не создавая новых инструментов для убийства людей».

(Предлагаемый бюджет вооруженных сил США на 2020 год составляет 718 миллиардов долларов. Из этой суммы почти 1 миллиард долларов пойдет на поддержку ИИ и машинного обучения для таких вещей, как логистика, анализ разведывательных данных и, да, вооружение. ) сценарий, включающий разработку сложной системы искусственного интеллекта «с целью, скажем, оценки некоторого числа с высокой степенью достоверности. ИИ понимает, что сможет добиться большей уверенности в своих вычислениях, если будет использовать все вычислительное оборудование мира, и понимает, что выпуск биологического супероружия для уничтожения человечества позволит ему бесплатно использовать все оборудование. Уничтожив человечество, он затем с большей достоверностью подсчитывает число».

Это, конечно, раздражает. Но успокойся. В 2012 году министерство обороны администрации Обамы издало директиву об «автономии в системах вооружения», которая включала следующую строку: «Автономные и полуавтономные системы вооружения должны быть разработаны таким образом, чтобы командиры и операторы могли осуществлять надлежащий уровень человеческого суждения в отношении использования сила.»

А в начале ноября этого года группа Пентагона под названием Совет по оборонным инновациям опубликовала этические принципы, касающиеся разработки и развертывания оружия с искусственным интеллектом. Однако, согласно Washington Post, «рекомендации совета никоим образом не имеют обязательной юридической силы. Теперь Пентагону предстоит определить, как и следует ли с ними действовать».

Что ж, это облегчение. Или нет.

 

Нестабильность фондового рынка, вызванная алгоритмической высокочастотной торговлей

Вы когда-нибудь задумывались о том, что алгоритмы могут разрушить всю нашу финансовую систему? Правильно, Уолл-Стрит. Возможно, вы захотите принять к сведению. Алгоритмическая торговля может стать причиной нашего следующего крупного финансового кризиса на рынках.

Что такое алгоритмическая торговля? Этот тип торговли возникает, когда компьютер, не обремененный инстинктами или эмоциями, которые могут затуманить человеческое суждение, совершает сделки на основе заранее запрограммированных инструкций. Эти компьютеры могут совершать чрезвычайно крупные, высокочастотные и дорогостоящие сделки, которые могут привести к большим убыткам и крайней волатильности рынка. Алгоритмическая высокочастотная торговля (HFT) оказалась огромным фактором риска на наших рынках. По сути, HFT — это когда компьютер размещает тысячи сделок на невероятной скорости с целью продажи через несколько секунд с небольшой прибылью. Тысячи таких сделок каждую секунду могут равняться довольно большому количеству изменений. Проблема с HFT заключается в том, что он не принимает во внимание, насколько взаимосвязаны рынки, или тот факт, что человеческие эмоции и логика по-прежнему играют огромную роль на наших рынках.

Распродажа миллионов акций на рынке авиаперевозок потенциально может напугать людей, заставив их продать свои доли в гостиничном бизнесе, что, в свою очередь, может снежным комом заставить людей продавать свои акции в других компаниях, связанных с путешествиями, что затем может повлиять на логистические компании, компании по поставкам продуктов питания и т. д.

Возьмем в качестве примера «мгновенный крах» в мае 2010 года. К концу торгового дня индекс Доу-Джонса упал на 1000 пунктов (стоимостью более 1 триллиона долларов), прежде чем вернуться к нормальным уровням всего через 36 минут. Что вызвало этот сбой? Первым причиной краха стал лондонский трейдер по имени Навиндер Сингх Сарао, а затем он усугубился компьютерами HFT. Очевидно, Сарао использовал «поддельный» алгоритм, который размещал заказы на тысячи фьючерсных контрактов на фондовые индексы, делая ставку на то, что рынок упадет. Вместо того, чтобы принять ставку, Сарао собирался отменить ордер в последнюю секунду и купить более дешевые акции, которые распродавались из-за его первоначальной ставки. Другие люди и HFT-компьютеры увидели эту ставку в 200 миллионов долларов и восприняли ее как знак того, что рынок вот-вот рухнет. В свою очередь, HFT-компьютеры начали одну из крупнейших распродаж акций в истории, что привело к краткосрочным убыткам в размере более 1 триллиона долларов по всему миру.

Финансовые алгоритмы HFT также не всегда корректны. Когда дело доходит до правильности, мы рассматриваем компьютеры как конечный результат, но ИИ по-прежнему так же умен, как и люди, которые его запрограммировали. В 2012 году в Knight Capital Group произошел сбой, который поставил ее на грань банкротства. Компьютеры Найта по ошибке передавали тысячи ордеров в секунду на рынок NYSE, вызывая массовый хаос в компании. Алгоритмы HFT совершили поразительные 4 миллиона сделок с 397 миллионами акций всего за 45 минут. Волатильность, вызванная этой компьютерной ошибкой, привела к тому, что Найт потерял 460 миллионов долларов в одночасье и был вынужден быть приобретен другой фирмой. Ошибочные алгоритмы, очевидно, имеют огромные последствия для акционеров и самих рынков, и никто не усвоил этот урок лучше, чем Найт.

Подробнее об искусственном интеллекте Технология искусственного интеллекта с эмоциями имеет большие перспективы (при ответственном использовании)

 

Снижение рисков, связанных с искусственным интеллектом регулирования.

«Обычно я не сторонник регулирования и надзора — я думаю, что обычно следует ошибаться в сторону минимизации этих вещей — но это тот случай, когда вы представляете очень серьезную опасность для общества», — сказал Маск на SXSW.

«Это должен быть государственный орган, обладающий пониманием и надзором, чтобы подтвердить, что все разрабатывают ИИ безопасно. Это чрезвычайно важно».

Форд согласен — с одной оговоркой. Он сказал, что регулирование внедрения AI в порядке, но не самого исследования.

«Вы регулируете использование ИИ, — сказал он, — но вы не сдерживаете прогресс в базовых технологиях. Я думаю, что это было бы ошибочным и потенциально опасным».

«Вы регулируете использование ИИ… но не сдерживаете прогресс в базовых технологиях. Я думаю, что это было бы ошибочным и потенциально опасным».

Потому что любая страна, отстающая в развитии ИИ, находится в невыгодном положении — в военном, социальном и экономическом плане. Решение, продолжил Форд, заключается в выборочном применении:

«Мы решаем, где нам нужен ИИ, а где нет; где допустимо, а где нет. И разные страны собираются сделать разный выбор. Так что у Китая он может быть везде, но это не значит, что мы можем позволить себе отставать от них по уровню техники».

Говоря об автономном оружии в Принстонском университете, американский генерал Джон Р. Аллен подчеркнул необходимость «активного международного обсуждения, которое может охватить суть этой технологии». Если необходимо, продолжил он, следует также обсудить, как лучше всего контролировать это, будь то договор, полностью запрещающий оружие ИИ, или договор, разрешающий только определенные виды применения технологии.

Для Havens более безопасный ИИ начинается и заканчивается людьми. Его главный акцент, который он излагает в своей книге 2016 года, заключается в следующем: «Как машины узнают, что мы ценим, если мы не знаем самих себя?» По его словам, при создании инструментов ИИ жизненно важно «уважать ценности конечного пользователя с упором на человека», а не зацикливаться на краткосрочных выгодах.

«Технологии были способны помочь нам с задачами с тех пор, как появилось человечество», — написал Хейвенс в Heartificial Intelligence . «Но как раса мы никогда не сталкивались с серьезной вероятностью того, что машины могут стать умнее нас или наполниться сознанием. Эта технологическая вершина является важным отличием, которое необходимо признать как для того, чтобы возвысить стремление воздать должное человечеству, так и для того, чтобы наилучшим образом определить, как ИИ может его развивать. Вот почему нам нужно знать, какие задачи мы хотим обучить машинам, чтобы они выполняли их осознанно. Это включало как индивидуальный, так и общественный выбор».

Всемирный экономический форум обсуждает внедрение ответственного ИИ

Исследователи ИИ Фей-Фей Ли и Джон Этчеменди из Института ориентированного на человека искусственного интеллекта Стэнфордского университета считают то же самое. В недавнем сообщении в блоге они предложили привлечь множество людей из самых разных областей, чтобы убедиться, что ИИ реализует свой огромный потенциал и укрепит общество, а не ослабит его: 

«Наше будущее зависит от способности ученых-социологов и компьютерных работать бок о бок с людьми из разных слоев общества — значительный отход от сегодняшней модели, ориентированной на информатику», — написали они. «Создатели ИИ должны искать идеи, опыт и проблемы людей разных национальностей, полов, культур и социально-экономических групп, а также людей из других областей, таких как экономика, право, медицина, философия, история, социология, коммуникации. , взаимодействие человека с компьютером, психология и исследования науки и техники (STS). Это сотрудничество должно осуществляться на протяжении всего жизненного цикла приложения — от самых ранних этапов до выхода на рынок и по мере масштабирования его использования».

Мессина несколько идеалистичен в отношении того, что должно произойти , чтобы помочь избежать хаоса ИИ, хотя он скептически относится к тому, что это действительно произойдет. По его словам, государственное регулирование не является чем-то само собой разумеющимся, особенно в свете неудач на этом фронте в сфере социальных сетей, технологические сложности которых меркнут по сравнению со сложностями искусственного интеллекта. Со стороны крупных технологических компаний потребуются «очень серьезные усилия», чтобы замедлить прогресс во имя большей устойчивости и меньшего количества непредвиденных последствий — особенно масштабных разрушительных.

«В данный момент, — сказал он, — я не думаю, что это должно произойти».

По мнению Мессины, для достижения этой цели потребуется некий «катализатор». Точнее, катастрофических катализаторов вроде войны или экономического коллапса. Хотя вопрос о том, окажется ли такое событие «достаточно большим, чтобы действительно привести к значимым долгосрочным изменениям, остается открытым».

Со своей стороны, Форд остается оптимистом в долгосрочной перспективе, несмотря на то, что он «очень не оптимистичен» в отношении ИИ.

«Я думаю, что мы можем говорить обо всех этих рисках, и они очень реальны, но ИИ также станет самым важным инструментом в нашем наборе инструментов для решения самых больших проблем, с которыми мы сталкиваемся», включая изменение климата.

Однако, когда дело доходит до ближайшей перспективы, его сомнения становятся более выраженными.

«Нам действительно нужно быть умнее, — сказал он. «В течение следующих десяти или двух лет я действительно беспокоюсь об этих проблемах и нашей способности адаптироваться к ним».

Преимущества и риски искусственного интеллекта

» Все, что нам нравится в цивилизации, является продуктом интеллекта, поэтому усиление нашего человеческого интеллекта с помощью искусственного интеллекта может помочь цивилизации процветать как никогда раньше — до тех пор, пока нам удается поддерживать технологию полезной.

Макс Тегмарк , Президент Института Будущего Жизни

Нажмите здесь, чтобы увидеть эту страницу на других языках: Китайский    Французский  Немецкий Японский    Корейский   Русский

Что такое ИИ?

От SIRI до самоуправляемых автомобилей искусственный интеллект (ИИ) быстро развивается. В то время как научная фантастика часто изображает ИИ как роботов с человеческими характеристиками, ИИ может охватывать что угодно, от поисковых алгоритмов Google до Watson от IBM и автономного оружия.

Искусственный интеллект сегодня правильно известен как узкий ИИ (или слабый ИИ), поскольку он предназначен для выполнения узкой задачи (например, только распознавание лиц, или только поиск в Интернете, или только вождение автомобиля). Однако долгосрочной целью многих исследователей является создание общего ИИ (AGI или сильного ИИ). В то время как узкий ИИ может превзойти людей в любой конкретной задаче, такой как игра в шахматы или решение уравнений, ОИИ превзойдет людей почти во всех когнитивных задачах.

Зачем исследовать безопасность ИИ?

В ближайшей перспективе цель сохранения положительного влияния ИИ на общество мотивирует исследования во многих областях, от экономики и права до технических тем, таких как проверка, достоверность, безопасность и контроль. Если ваш ноутбук выйдет из строя или будет взломан, это может быть не более чем незначительной неприятностью, тем более важно, чтобы система ИИ делала то, что вы хотите, если она управляет вашей машиной, вашим самолетом, вашим кардиостимулятором, вашей автоматической торговлей. системы или вашей электросети. Еще одна краткосрочная задача — предотвратить разрушительную гонку смертоносных автономных вооружений.

В долгосрочной перспективе важный вопрос заключается в том, что произойдет, если поиски сильного ИИ увенчаются успехом и система ИИ станет лучше людей во всех когнитивных задачах. Как указывает И.Дж. Хорошо в 1965 году, разработка более умных систем ИИ сама по себе является когнитивной задачей. Такая система потенциально может подвергаться рекурсивному самосовершенствованию, вызывая взрыв интеллекта, оставляя человеческий интеллект далеко позади. Изобретая революционно новые технологии, такой сверхразум может помочь нам искоренить войны, болезни и бедность, поэтому создание сильного ИИ может стать крупнейшим событием в истории человечества. Однако некоторые эксперты выразили обеспокоенность тем, что это может быть и последнее, если мы не научимся согласовывать цели ИИ с нашими, прежде чем он станет сверхразумным.

Некоторые сомневаются, будет ли когда-нибудь создан сильный ИИ, а другие настаивают на том, что создание сверхразумного ИИ гарантированно принесет пользу. В FLI мы признаем обе эти возможности, но также признаем, что система искусственного интеллекта может намеренно или непреднамеренно причинить большой вред. Мы считаем, что сегодняшние исследования помогут нам лучше подготовиться к таким потенциально негативным последствиям в будущем и предотвратить их, таким образом, пользуясь преимуществами ИИ и избегая ловушек.

Ссылка на: Сообщество по экзистенциальной безопасности ИИ

Сообщество по экзистенциальной безопасности ИИ

Мы считаем, что сегодняшние исследования помогут нам лучше подготовиться к таким потенциально негативным последствиям и предотвратить их в будущем, таким образом, пользуясь преимуществами ИИ и избегая ловушек. Нажмите здесь, чтобы ознакомиться с нашим растущим сообществом исследователей экзистенциальной безопасности ИИ.

Чем может быть опасен ИИ?

Большинство исследователей сходятся во мнении, что сверхразумный ИИ вряд ли будет проявлять человеческие эмоции, такие как любовь или ненависть, и что нет причин ожидать, что ИИ намеренно станет доброжелательным или злонамеренным. Вместо этого при рассмотрении того, как ИИ может стать риском, эксперты считают наиболее вероятными два сценария:

  1. ИИ запрограммирован на разрушительные действия:  Автономное оружие — это системы искусственного интеллекта, запрограммированные на убийство. В руках не того человека это оружие могло легко привести к массовым жертвам. Более того, гонка вооружений ИИ может непреднамеренно привести к войне ИИ, которая также приведет к массовым жертвам. Чтобы не помешать противнику, это оружие будет спроектировано таким образом, чтобы его было чрезвычайно трудно просто «выключить», поэтому люди, вероятно, могли бы потерять контроль над такой ситуацией. Этот риск присутствует даже при узком ИИ, но растет по мере увеличения уровня интеллекта и автономии ИИ.
  2. ИИ запрограммирован делать что-то полезное, но он разрабатывает деструктивный метод для достижения своей цели:  Это может произойти всякий раз, когда мы не можем полностью согласовать цели ИИ с нашими, что поразительно сложно. Если вы попросите послушную умную машину как можно быстрее доставить вас в аэропорт, она может доставить вас туда в погоне за вертолетами и в блевотине, делая не то, что вы хотели, а буквально то, о чем вы просили. Если сверхразумной системе поручается амбициозный геоинженерный проект, она может нанести ущерб нашей экосистеме в качестве побочного эффекта и рассматривать попытки человека остановить ее как угрозу, которую необходимо устранить.

Ссылка на: Автономные системы смертоносного оружия

Пример: Автономное смертоносное оружие

Роботы-убийцы, также называемые «автономными системами смертоносного оружия» или «роботами-убийцами», — это системы оружия, которые используют искусственный интеллект (ИИ) для идентификации, выбора и убивать человеческие цели без вмешательства человека.

Эта технология уже существует, и она сопряжена с огромным риском. Узнайте больше о смертоносном автономном оружии и о том, что мы можем сделать для его предотвращения, здесь.

Как показывают эти примеры, продвинутый ИИ вызывает не злорадство, а компетентность. Сверхинтеллектуальный ИИ будет чрезвычайно хорош в достижении своих целей, и если эти цели не совпадают с нашими, у нас есть проблема. Вы, вероятно, не злобный ненавистник муравьев, который наступает на муравьев из злого умысла, но если вы отвечаете за проект гидроэлектростанции с экологически чистой энергией, а в регионе есть муравейник, который нужно затопить, очень плохо для муравьев. Ключевая цель исследования безопасности ИИ — никогда не ставить человечество в положение этих муравьев.

Почему недавний интерес к безопасности ИИ

Стивен Хокинг, Илон Маск, Стив Возняк, Билл Гейтс и многие другие знаменитости в науке и технике недавно выразили обеспокоенность в средствах массовой информации и в открытых письмах по поводу рисков, связанных с ИИ, к ним присоединились многие ведущие исследователи ИИ. Почему эта тема вдруг оказалась в заголовках?

Идея о том, что поиски сильного ИИ в конечном счете увенчаются успехом, долгое время считалась научной фантастикой, на протяжении столетий или даже больше. Тем не менее, благодаря недавним прорывам, многие вехи ИИ, которые эксперты считали отстоящими на десятилетия всего пять лет назад, теперь достигнуты, что заставляет многих экспертов серьезно отнестись к возможности сверхразума в нашей жизни. В то время как некоторые эксперты до сих пор предполагают, что до ИИ человеческого уровня еще далеко, большинство исследователей ИИ на конференции в Пуэрто-Рико в 2015 году предположили, что это произойдет до 2060 года. Поскольку для завершения необходимых исследований в области безопасности могут потребоваться десятилетия, разумно начать их сейчас. .

Поскольку ИИ потенциально может стать умнее любого человека, у нас нет надежного способа предсказать его поведение. Мы не можем использовать прошлые технологические разработки в качестве основы, потому что мы никогда не создавали ничего, что могло бы, вольно или невольно, перехитрить нас. Лучшим примером того, с чем мы можем столкнуться, может быть наша собственная эволюция. Люди теперь контролируют планету не потому, что мы самые сильные, самые быстрые или самые большие, а потому, что мы самые умные. Если мы перестанем быть самыми умными, уверены ли мы, что останемся у руля?

Позиция FLI заключается в том, что наша цивилизация будет процветать до тех пор, пока мы будем побеждать в гонке между растущей мощью технологий и мудростью, с которой мы ими управляем. В случае с технологией ИИ позиция FLI заключается в том, что лучший способ победить в этой гонке — не препятствовать первому, а ускорить второе, поддерживая исследования безопасности ИИ.

Самые популярные мифы о продвинутом ИИ

Идет увлекательный разговор о будущем искусственного интеллекта и о том, что он будет/должен значить для человечества. Ведущие мировые эксперты расходятся во мнениях по поводу увлекательных споров, таких как: будущее влияние ИИ на рынок труда; если/когда будет разработан искусственный интеллект человеческого уровня; приведет ли это к взрыву интеллекта; и следует ли нам приветствовать это или опасаться. Но есть также много примеров скучных псевдоспоров, вызванных тем, что люди неправильно понимают друг друга и говорят друг с другом. Чтобы помочь себе сосредоточиться на интересных противоречиях и открытых вопросах, а не на недоразумениях, давайте проясним некоторые из наиболее распространенных мифов.

Мифы о временной шкале

Первый миф касается временной шкалы: сколько времени потребуется, чтобы машины значительно превзошли человеческий интеллект? Распространенным заблуждением является то, что мы знаем ответ с большой уверенностью.

Один из популярных мифов состоит в том, что мы знаем, что в этом столетии мы получим сверхчеловеческий ИИ. На самом деле, история полна технологического преувеличения. Где те термоядерные электростанции и летающие автомобили, которые нам обещали уже иметь? В прошлом ИИ также неоднократно преувеличивался, даже некоторыми основателями этой области. Например, Джон Маккарти (который ввел термин «искусственный интеллект»), Марвин Мински, Натаниэль Рочестер и Клод Шеннон написали этот чрезмерно оптимистичный прогноз о том, что можно сделать за два месяца с компьютерами каменного века:  «Мы предлагаем провести двухмесячное исследование искусственного интеллекта с участием 10 человек летом 1956 года в Дартмутском колледже   . Будет предпринята попытка выяснить, как заставить машины использовать язык, формировать проблемы, теперь зарезервированные для людей, и улучшают себя. Мы думаем, что можно добиться значительного прогресса в решении одной или нескольких из этих проблем, если тщательно подобранная группа ученых вместе поработает над ней в течение лета».

С другой стороны, популярный контр-миф состоит в том, что мы знаем, что в этом столетии не будет сверхчеловеческого ИИ. Исследователи сделали широкий диапазон оценок того, насколько мы далеки от сверхчеловеческого ИИ, но мы, конечно, не можем с большой уверенностью сказать, что вероятность равна нулю в этом столетии, учитывая мрачный послужной список таких техно-скептических прогнозов. Например, Эрнест Резерфорд, возможно, величайший физик-ядерщик своего времени, сказал в 1919 г.33 — менее чем за 24 часа до изобретения Сцилардом цепной ядерной реакции — что ядерная энергия была «самогоном». А королевский астроном Ричард Вулли в 1956 году назвал межпланетные путешествия «полным бредом». Самая крайняя форма этого мифа заключается в том, что сверхчеловеческий ИИ никогда не появится, потому что это физически невозможно. Однако физики знают, что мозг состоит из кварков и электронов, устроенных так, чтобы действовать как мощный компьютер, и что нет законов физики, препятствующих нам создавать еще более разумные кварковые шарики.

В ходе ряда опросов исследователей ИИ спрашивали, через сколько лет, по их мнению, у нас будет ИИ человеческого уровня с вероятностью не менее 50 %. Все эти опросы имеют один и тот же вывод: ведущие мировые эксперты расходятся во мнениях, поэтому мы просто не знаем. Например, в таком опросе исследователей ИИ на конференции ИИ в Пуэрто-Рико в 2015 году средний (медианный) ответ был к 2045 году, но некоторые исследователи предполагали сотни лет или больше.

Существует также связанный с этим миф о том, что люди, которые беспокоятся об ИИ, думают, что до него осталось всего несколько лет. На самом деле, большинство известных людей, беспокоящихся о сверхчеловеческом ИИ, предполагают, что до него еще по крайней мере десятилетия. Но они утверждают, что, пока мы не уверены на 100%, что этого не произойдет в этом столетии, разумно начать исследование безопасности сейчас, чтобы подготовиться к возможностям. Многие проблемы безопасности, связанные с искусственным интеллектом человеческого уровня, настолько сложны, что на их решение могут уйти десятилетия. Поэтому разумно начать исследовать их сейчас, а не накануне вечером, когда некоторые программисты, пьющие Red Bull, решат включить один из них.

Противоречивые мифы

Еще одно распространенное заблуждение состоит в том, что единственными людьми, питающими опасения по поводу ИИ и поддерживающими исследования безопасности ИИ, являются луддиты, которые мало что знают об ИИ. Когда Стюарт Рассел, автор стандартного учебника по искусственному интеллекту, упомянул об этом во время своего выступления в Пуэрто-Рико, аудитория громко рассмеялась. Связанное с этим заблуждение состоит в том, что поддержка исследований безопасности ИИ вызывает огромные споры. На самом деле, чтобы поддерживать скромные инвестиции в исследования безопасности ИИ, людей не нужно убеждать в том, что риски высоки, просто не пренебрежимо малы — так же, как скромные инвестиции в страхование жилья оправдываются значительной вероятностью того, что дом сжигание.

Возможно, средства массовой информации сделали дебаты о безопасности ИИ более спорными, чем они есть на самом деле. В конце концов, страх продается, а статьи, в которых используются вырванные из контекста цитаты, чтобы объявить о неминуемой гибели, могут генерировать больше кликов, чем детализированные и сбалансированные. В результате два человека, которые знают о позициях друг друга только из цитат из СМИ, скорее всего, будут думать, что они не согласны друг с другом больше, чем на самом деле. Например, техноскептик, прочитавший о позиции Билла Гейтса только в британском таблоиде, может ошибочно подумать, что Гейтс верит в неизбежность появления сверхразума. Точно так же кто-то из движения за благотворный ИИ, который ничего не знает о позиции Эндрю Нг, кроме его цитаты о перенаселении Марса, может ошибочно подумать, что его не волнует безопасность ИИ, хотя на самом деле это не так. Суть просто в том, что, поскольку оценки Нг на временной шкале длиннее, он, естественно, склонен отдавать приоритет краткосрочным задачам ИИ над долгосрочными.

Мифы о рисках сверхчеловеческого ИИ

Многие исследователи ИИ закатывают глаза, увидев этот заголовок: « Стивен Хокинг предупреждает, что появление роботов может иметь катастрофические последствия для человечества». И столько же сбились со счета, сколько похожих статей они видели. Как правило, эти статьи сопровождаются злобным роботом с оружием, и они предлагают нам беспокоиться о том, что роботы восстанут и убьют нас, потому что они стали сознательными и/или злыми. С другой стороны, такие статьи на самом деле впечатляют, потому что они кратко излагают сценарий, который исследователи ИИ рассматривают9.0055 не  об этом не беспокойтесь. Этот сценарий сочетает в себе целых три отдельных заблуждения: озабоченность сознанием , злом, и роботами .

Если вы едете по дороге, у вас есть субъективное восприятие цветов, звуков, и т. д. . Но есть ли у беспилотного автомобиля субъективный опыт? Есть ли вообще что-то похожее на то, чтобы быть самоуправляемым автомобилем? Хотя эта загадка сознания интересна сама по себе, она не имеет отношения к риску ИИ. Если вас сбил беспилотный автомобиль, для вас не имеет значения, чувствует ли он себя в сознании субъективно. Точно так же на нас, людей, повлияет то, что сверхразумный ИИ делает , а не то , как субъективно ощущается .

Страх перед машинами, превращающими зло, — еще один отвлекающий маневр. Настоящее беспокойство вызывает не злоба, а компетентность. Сверхразумный ИИ по определению очень хорошо достигает своих целей, какими бы они ни были, поэтому мы должны убедиться, что его цели совпадают с нашими. Люди обычно не ненавидят муравьев, но мы умнее их, поэтому, если мы хотим построить плотину гидроэлектростанции, а там есть муравейник, это плохо для муравьев. Движение за благотворный ИИ хочет не ставить человечество в положение этих муравьев.

Заблуждение сознания связано с мифом о том, что у машин не может быть целей. Машины, очевидно, могут иметь цели в узком смысле проявления целенаправленного поведения: поведение ракеты с тепловым наведением наиболее экономически объясняется как цель поразить цель. Если вы чувствуете угрозу со стороны машины, цели которой расходятся с вашими, то вас беспокоят именно ее цели в этом узком смысле, а не то, сознательна ли машина и испытывает ли она чувство цели. Если бы за вами гналась эта ракета с тепловым наведением, вы бы, наверное, не воскликнули: «Я не беспокоюсь, потому что у машин не может быть целей!»

Я сочувствую Родни Бруксу и другим пионерам робототехники, которые чувствуют себя несправедливо демонизированными пугающими таблоидами, потому что некоторые журналисты, кажется, одержимы роботами и украшают многие свои статьи злобными металлическими монстрами с красными блестящими глазами. Фактически, главная забота движения за полезный ИИ связана не с роботами, а с самим интеллектом: в частности, с интеллектом, цели которого не совпадают с нашими. Чтобы доставить нам неприятности, такой несогласованный сверхчеловеческий интеллект не нуждается в роботизированном теле, а просто в подключении к Интернету — это может позволить перехитрить финансовые рынки, изобретать исследователей-людей, манипулировать лидерами-людьми и разрабатывать оружие, которое мы даже не можем понять. Даже если бы создание роботов было физически невозможно, сверхинтеллектуальный и сверхбогатый ИИ мог бы легко платить или манипулировать многими людьми, чтобы они невольно выполняли его приказы.

Заблуждение о роботах связано с мифом о том, что машины не могут управлять людьми. Интеллект позволяет контролировать: люди контролируют тигров не потому, что мы сильнее, а потому, что мы умнее. Это означает, что если мы уступим свое положение самых умных на нашей планете, возможно, мы также уступим контроль.

Интересные споры

Не теряя времени на вышеупомянутые заблуждения, давайте сосредоточимся на истинных и интересных спорах, в которых расходятся мнения даже экспертов. Какое будущее вы хотите? Должны ли мы разрабатывать смертоносное автономное оружие? Что бы вы хотели, чтобы произошло с автоматизацией работы? Какой карьерный совет вы бы дали современным детям? Вы предпочитаете новые рабочие места, заменяющие старые, или общество безработных, где каждый наслаждается жизнью, полной досуга и богатством, производимым машинами? В дальнейшем вы хотели бы, чтобы мы создали сверхразумную жизнь и распространили ее по нашему космосу? Будем ли мы управлять разумными машинами или они будут управлять нами? Заменят ли нас разумные машины, будут ли они сосуществовать с нами или сольются с нами? Что значит быть человеком в эпоху искусственного интеллекта? Что бы вы хотели, чтобы это значило, и как мы можем сделать будущее таким? Пожалуйста, присоединяйтесь к беседе!

Рекомендованные ссылки

Видео

  • Макс Тегмарк: Как получить возможности, а не подавление с помощью ИИ
  • Стюарт Рассел: 3 принципа создания более безопасного ИИ
  • Сэм Харрис: Можем ли мы создать ИИ, не теряя над ним контроля?
  • Доклады с конференции Beneficial AI 2017 в Асиломаре, Калифорния
  • Стюарт Рассел – Долгосрочное будущее (искусственного) интеллекта
  • Людям не нужно применять
  • Ник Бостром: Что произойдет, когда компьютеры станут умнее нас?
  • Согласование ценностей — Стюарт Рассел: Презентация дебатов Berkeley IdeasLab на Всемирном экономическом форуме
  • Социальные технологии и искусственный интеллект: ежегодное собрание Всемирного экономического форума, 2015 г.
  • Стюарт Рассел, Эрик Хорвиц, Макс Тегмарк – Будущее искусственного интеллекта
  • Яан Таллин об управлении искусственным интеллектом

Статьи для СМИ

  • Проблемы пионера искусственного интеллекта
  • Преодоление самодовольства на сверхразумных машинах
  • Почему мы должны думать об угрозе искусственного интеллекта
  • Стивен Хокинг обеспокоен тем, что искусственный интеллект уничтожит человечество
  • Искусственный интеллект может убить нас всех. Познакомьтесь с человеком, который серьезно относится к этому риску
  • Искусственный интеллект представляет «риск исчезновения» для человечества, говорит Стюарт Армстронг из Оксфордского университета
  • Что происходит, когда искусственный интеллект нападает на нас?
  • Можем ли мы создать искусственный сверхразум, который нас не убьет?
  • Искусственный интеллект: наше последнее изобретение?
  • Искусственный интеллект: можно ли оставить его в коробке?
  • Научная пятница: Кристоф Кох и Стюарт Рассел о машинном интеллекте (стенограмма)
  • Превосходство: исследователь ИИ наслаждается наблюдением за собственной казнью
  • Наука идет в кино: «Превосходство»
  • Наш страх перед искусственным интеллектом

Эссе исследователей ИИ

  • Стюарт Рассел: Что вы думаете о мыслящих машинах?
  • Стюарт Рассел: мифы и самогон
  • Джейкоб Стейнхардт: долгосрочные и краткосрочные проблемы обеспечения безопасности систем ИИ
  • Элиезер Юдковски: почему ИИ, ориентированный на ценности, является сложной инженерной проблемой
  • Элиэзер Юдковски: нет пожарной сигнализации для искусственного интеллекта общего назначения
  • Открытое письмо

  • : Приоритеты исследований в области надежного и полезного искусственного интеллекта

Исследовательские статьи

  • Разведывательный взрыв: доказательства и импорт (MIRI)
  • Взрыв разведки и машинная этика (Люк Мюльхаузер, MIRI)
  • Искусственный интеллект как положительный и отрицательный фактор глобального риска (MIRI)
  • Базовые приводы ИИ
  • Гонка к пропасти: модель развития искусственного интеллекта
  • Этика искусственного интеллекта
  • Сверхразумная воля: мотивация и инструментальная рациональность в продвинутых искусственных агентах
  • Wireheading в смертных универсальных агентах
  • Обзор литературы по безопасности AGI

Коллекции исследований

  • Брюс Шнайер – Ресурсы по экзистенциальным рискам , с. 110
  • Согласование сверхразума с интересами человека: программа технических исследований (MIRI)
  • публикаций MIRI
  • Стэнфордское столетнее исследование искусственного интеллекта (AI100)
  • Подготовка к будущему разведки: отчет Белого дома, в котором обсуждается текущее состояние ИИ и будущих приложений, а также рекомендации относительно роли правительства в поддержке развития ИИ.
  • Искусственный интеллект, автоматизация и экономика: отчет Белого дома, в котором обсуждается потенциальное влияние ИИ на рабочие места и экономику, а также стратегии увеличения преимуществ этого перехода.
  •  Специальный отчет IEEE: искусственный интеллект: отчет, в котором объясняется глубокое обучение, при котором нейронные сети обучаются сами и принимают решения самостоятельно.

Практические примеры

  • Конференция Asilomar: Практический пример снижения рисков (Катя Грейс, MIRI)
  • Предконкурентное сотрудничество в фармацевтической промышленности (Эрик Гастфренд и Брайан Ли, FLI): тематическое исследование предконкурентного сотрудничества в области безопасности в промышленности.

Сообщения в блогах и обсуждения

  • Управление ИИ
  • Воздействие ИИ
  • Лучшее время для работы по безопасности ИИ
  • Риски и возможности ИИ: стратегический анализ
  • Где мы находимся — прогресс ИИ и связанных с ним технологий: введение в прогресс исследовательских институтов, разрабатывающих новые технологии ИИ.
  • Безопасность ИИ
  • Подождите, но почему на искусственном интеллекте
  • Ответ на Люка Мюльхаузера «Подожди, но почему»
  • Slate Star Codex о том, почему исследования риска ИИ не вызывают таких споров
  • Меньше неправильного: игрушечная модель проблемы управления ИИ
  • Что должен делать средний советник с выравниванием ИИ?
  • Waking Up Podcast #116 — AI: Racing Toward the Brink with Eliezer Yudkowsky

Книги

  • Сверхразум: пути, опасности, стратегии
  • Жизнь 3.0: Быть человеком в эпоху искусственного интеллекта
  • Наше последнее изобретение: искусственный интеллект и конец человеческой эры
  • Перед лицом взрыва интеллекта
  • Электронная книга о риске ИИ (включая сценарий «Терминатора», который более правдоподобен, чем киноверсия)

Организации

  • Научно-исследовательский институт машинного интеллекта: некоммерческая организация, миссия которой состоит в том, чтобы создание интеллекта, превосходящего человеческий, имело положительное влияние.
  • Центр изучения экзистенциального риска (CSER): многопрофильный исследовательский центр, занимающийся изучением и снижением рисков, которые могут привести к вымиранию человечества.
  • Институт будущего человечества: многопрофильный исследовательский институт, использующий инструменты математики, философии и науки для решения общих вопросов о человечестве и его перспективах.
  • Партнерство

  • в области ИИ: Учреждено для изучения и формулирования передового опыта в области технологий ИИ, для расширения понимания общественностью ИИ и для использования в качестве открытой платформы для обсуждения и участия в обсуждении ИИ и его влиянии на людей и общество.
  • Global Catastrophic Risk Institute: аналитический центр, занимающийся исследованиями, образованием и профессиональным сотрудничеством в области глобальных катастрофических рисков.
  • Организации, занимающиеся экзистенциальными рисками: краткое введение в некоторые организации, занимающиеся экзистенциальными рисками.
  • 80 000 часов: руководство по карьере для исследователей безопасности ИИ.

Многие организации, перечисленные на этой странице, и их описания взяты из списка, составленного Институтом глобальных катастрофических рисков; мы очень благодарны за усилия, которые они приложили для его составления. Эти организации в первую очередь занимаются вопросами компьютерных технологий, хотя многие из них охватывают и другие темы. Этот список, несомненно, неполон; пожалуйста, свяжитесь с нами, чтобы предложить дополнения или исправления.

8
отвечает

SQ10. Каковы самые насущные опасности ИИ?

Техно-решение

Одной из самых насущных опасностей ИИ является техно-решение, представление о том, что ИИ можно рассматривать как панацею, когда это всего лишь инструмент. 3 По мере того, как мы видим дальнейшие достижения в области ИИ, возрастает искушение применить ИИ для принятия решений ко всем социальным проблемам. Но технологии часто создают большие проблемы в процессе решения меньших. Например, системы, которые оптимизируют и автоматизируют применение социальных услуг, могут быстро стать негибкими и лишить доступа мигрантов или других лиц, оказавшихся между трещинами. 4

При выборе между алгоритмами и людьми некоторые считают, что алгоритмы всегда будут менее предвзятым выбором. Тем не менее, в 2018 году Amazon сочла необходимым отказаться от проприетарного инструмента рекрутинга, потому что исторические данные, на которых он обучался, привели к созданию системы, которая систематически предвзято относилась к женщинам. 5 Автоматизированное принятие решений часто может воспроизводить, усугублять и даже усиливать предвзятость, которую мы хотели бы устранить.

Действительно, технологии далеко не панацея, они могут создавать петли обратной связи, ухудшающие различение. Алгоритмы рекомендаций, такие как рейтинг страницы Google, обучены определять и расставлять приоритеты для наиболее «релевантных» элементов на основе того, как другие пользователи взаимодействуют с ними. По мере того как предвзятые пользователи подают в алгоритм предвзятую информацию, он отвечает еще более предвзято, что расширяет понимание пользователей и углубляет их предвзятость и так далее. 6 Поскольку все технологии являются продуктом предвзятой системы, 7 недостатки техно-решения уходят глубоко: 8 творение ограничено ограничениями его создателя.

Опасности принятия статистической точки зрения на правосудие

Автоматизированное принятие решений может привести к искаженным результатам, которые воспроизводят и усиливают существующие предубеждения. Таким образом, потенциальная опасность заключается в том, что общественность принимает выводы, сделанные ИИ, как несомненные. Этот детерминистский подход к принятию решений ИИ может иметь тяжелые последствия как в криминальной среде, так и в сфере здравоохранения. Подходы на основе ИИ, такие как PredPol, программное обеспечение, изначально разработанное Департаментом полиции Лос-Анджелеса и Калифорнийским университетом в Лос-Анджелесе, призванное помочь защитить каждого 33 гражданина США, 9 предсказать, когда, где и как произойдет преступление. В тематическом исследовании одного города США, проведенном в 2016 году, было отмечено, что этот подход непропорционально прогнозирует преступления в районах с более высоким населением небелых жителей и жителей с низким доходом. 10 Когда в наборах данных непропорционально представлены низшие члены общества, вероятным результатом является вопиющая дискриминация.

Решения о приговоре все чаще принимаются проприетарными алгоритмами, которые пытаются оценить, совершит ли подсудимый преступления в будущем, что приводит к опасениям, что правосудие передается программному обеспечению. 11 Поскольку ИИ становится все более способным анализировать все больше и больше факторов, которые могут коррелировать с предполагаемым риском ответчика, суды и общество в целом могут принять алгоритмическую вероятность за факт. Эта опасная реальность означает, что алгоритмическая оценка индивидуального риска для общества может быть интерпретирована другими как почти несомненный результат — вводящий в заблуждение результат, против которого предостерегали даже разработчики исходных инструментов. Несмотря на то, что система искусственного интеллекта, основанная на статистических данных, может быть построена так, чтобы сообщать о степени достоверности каждого прогноза, 12 нет никакой гарантии, что люди, использующие эти прогнозы, будут использовать их разумно. Принятие вероятности за уверенность означает, что прошлое всегда будет диктовать будущее.

Сети генерации изображений можно использовать для выполнения других задач, таких как преобразование изображений лиц с низким разрешением в изображения лиц с высоким разрешением. Конечно, такое преобразование представляет собой не столько восстановление недостающей информации, сколько сопоставление деталей, согласующихся с ее входными данными. Например, система PULSE имеет тенденцию генерировать изображения с чертами, которые кажутся этнически белыми, как видно на этом входном изображении бывшего президента США Барака Обамы.
Откуда: https://www.theverge.com/21298762/face-depixelizer-ai-machine-learning-…

Существует аура нейтральности и беспристрастности, связанная с принятием решений ИИ в некоторых уголках общественного сознания, в результате чего системы воспринимаются как объективные, даже если они могут быть результатом предвзятых исторических решений или даже вопиющей дискриминации. Все аналитические данные основаны на некоторой степени интерпретации. В качестве конкретного примера, проверка инструмента для проверки резюме показала, что двумя основными факторами, которые он сильнее всего связывает с положительными результатами работы в будущем, были то, звали ли соискателя Джаред и играл ли он в лакросс в старшей школе. 13 Нежелательные предубеждения могут быть скрыты как за непрозрачным характером используемой технологии, так и за использованием посредников, номинально невинных атрибутов, которые позволяют принять решение, которое является фундаментально предвзятым. Алгоритм, основанный на данных, в которых широко распространены гендерные, расовые, классовые и эйблистские предубеждения, может эффективно усиливать эти предубеждения, даже не идентифицируя их явно в коде.

Без прозрачности в отношении данных или алгоритмов ИИ, которые их интерпретируют, общественность может остаться в неведении относительно того, как принимаются решения, которые существенно влияют на их жизнь. Не имея адекватной информации для предъявления иска, люди могут потерять доступ как к надлежащей правовой процедуре, так и к возмещению ущерба, если они считают, что системы ИИ осудили их ненадлежащим или ошибочным образом. Большие пробелы в прецедентном праве делают применение Раздела VII — основной существующей правовой базы в США для дискриминации при приеме на работу — к делам об алгоритмической дискриминации невероятно сложным. Эти опасения усугубляются алгоритмами, которые выходят за рамки традиционных соображений, таких как кредитный рейтинг человека, и вместо этого учитывают любые и все переменные, коррелирующие с вероятностью того, что они являются безопасными инвестициями. Среди европейцев была показана статистически значимая корреляция между кредитным риском и тем, использует ли человек Mac или ПК, а также указывает ли он свое имя в своем адресе электронной почты, что, как оказалось, является косвенным показателем благосостояния. 14 Компании, которые используют такие атрибуты, даже если они действительно улучшают точность модели, могут нарушать закон, если эти атрибуты также явно коррелируют с защищенным классом, таким как раса. Потеря автономии также может быть результатом созданных ИИ «информационных пузырей», которые узко ограничивают онлайн-опыт каждого человека до такой степени, что они не знают о существовании действительных альтернативных точек зрения.

Системы искусственного интеллекта используются для распространения дезинформации в Интернете, что дает им возможность стать угрозой демократии и инструментом фашизма. От дипфейковых видео до онлайн-ботов, манипулирующих публичным дискурсом, симулируя консенсус и распространяя фейковые новости, 15 существует опасность того, что системы ИИ подорвут общественное доверие. Эта технология может быть использована преступниками, государствами-изгоями, идеологическими экстремистами или просто группами с особыми интересами для манипулирования людьми в целях получения экономической или политической выгоды. Дезинформация представляет серьезную угрозу для общества, поскольку она эффективно изменяет доказательства и манипулирует ими, создавая петли социальной обратной связи, которые подрывают любое чувство объективной истины. Споры о том, что реально, быстро перерастают в споры о том, кто решает, что реально, что приводит к пересмотру властных структур, которые часто служат укоренившимся интересам. 16

Дискриминация и риск в медицинских учреждениях

Хотя персонализированная медицина является хорошим потенциальным применением ИИ, существуют и опасности. Текущие бизнес-модели для медицинских приложений на основе ИИ, как правило, сосредоточены на создании единой системы, например, предсказателя износа, которую можно продать многим покупателям. Однако эти системы часто не делают обобщений за пределами своих обучающих данных. Даже различия в том, как упорядочиваются клинические тесты, могут сбить с толку предсказателей, и со временем точность системы часто будет ухудшаться по мере изменения практики. Клиницисты и администраторы недостаточно подготовлены для мониторинга и решения этих проблем, а недостаточное внимание к человеческому фактору интеграции ИИ привело к колебанию между недоверием к системе (игнорирование ее) и чрезмерным доверием к системе (доверие даже к ней). когда это неправильно), главная проблема отчета AI100 за 2016 год.

Эти опасения в целом вызывают беспокойство в условиях высокого риска, которым является здравоохранение, и даже больше, потому что маргинализированные группы населения — те, которые уже сталкиваются с дискриминацией со стороны системы здравоохранения как со стороны структурных факторов (таких как отсутствие доступа), так и научных факторов (таких как руководящие принципы, которые были разработаны на основе испытаний на других популяциях), могут потерять еще больше. Сегодня и в ближайшем будущем системы искусственного интеллекта, основанные на машинном обучении, будут использоваться для определения послеоперационных планов индивидуального обезболивания для некоторых пациентов, а для других — для прогнозирования вероятности развития у человека рака молочной железы. Алгоритмы ИИ играют роль в принятии решений, касающихся распределения органов, вакцин и других элементов здравоохранения. Предубеждения в этих подходах могут иметь буквально ставки жизни и смерти.

В 2019 году стало известно, что Optum, алгоритм медицинских услуг, используемый для определения того, какие пациенты могут получить дополнительную медицинскую помощь, демонстрирует фундаментальные расовые предубеждения. Разработчики системы позаботились о том, чтобы раса не учитывалась, но они также попросили алгоритм учитывать будущую стоимость пациента для системы здравоохранения. 17 Несмотря на то, что эта функция предназначалась для того, чтобы отразить ощущение строгости медицинского обслуживания, на самом деле она служила показателем расы: контроль медицинских потребностей, уход за чернокожими пациентами в среднем стоит на 1800 долларов меньше в год.

Каждый день разрабатываются новые технологии для лечения серьезных заболеваний. В недавнем исследовании было показано, что новый алгоритм, обученный для выявления меланомы, является более точным, чем врачи, но вероятность того, что алгоритм будет предвзятым в отношении чернокожих пациентов, значительна, поскольку алгоритм был обучен с использованием большинства светлокожих групп. 18 Ставки особенно высоки в отношении диагноза меланомы, где пятилетняя выживаемость на 17 процентных пунктов меньше для чернокожих американцев, чем для белых. В то время как технологии могут ставить более быстрые диагнозы и, таким образом, устранять этот разрыв в выживании, алгоритм машинного обучения хорош настолько, насколько хорош его набор данных. Неправильно обученный алгоритм может принести больше вреда, чем пользы для пациентов из группы риска, полностью пропустив рак или генерируя ложные срабатывания. По мере того, как новые алгоритмы насыщают рынок обещаниями медицинских чудес, упущение из виду предубеждений, укоренившихся в их результатах, может способствовать утрате человеческого биоразнообразия, поскольку людям, не включенным в первоначальные наборы данных, отказывают в надлежащем уходе. Хотя точный долгосрочный эффект алгоритмов в здравоохранении неизвестен, их способность воспроизводить предвзятость означает, что любой прогресс, который они производят для населения в совокупности — от диагностики до распределения ресурсов — может происходить за счет наиболее уязвимых.


[1] Брайан Кристиан, Проблема выравнивания: машинное обучение и человеческие ценности, W. W. Norton & Company, 2020

[2] https://humanсовместимый.ai/app/uploads/2020/11/CHAI-2020- Progress-Report-public-9-30.pdf 

[3] https://knightfoundation.org/philanthropys-techno-solutionism-problem/ 

[4] https://www.theguardian.com/world/2021 /jan/12/французская-женщина-три-года-пытается-доказать-она-не-мертвая; https://virginia-eubanks.com/ («Автоматизация неравенства»)

[5] https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-anti-women -idUSKCN1MK08G

[6] Safiya Umoja Noble, Алгоритмы угнетения: как поисковые системы усиливают расизм , NYU Press, 2018 

[7] Ruha Benjamin, Race After Technology: Abolitionist Tools for the New Jim Code 905 , 2019

[8] https://www.publicbooks.org/the-folly-of-technological-solutionism-an-interview-with-evgeny-morozov/

[9] https://predpol. com/about 

[10] Кристиан Люм и Уильям Исаак, «Предсказывать и служить?» Значение , октябрь 2016 г., https://rss.onlinelibrary.wiley.com/doi/epdf/10.1111/j.1740-9713.2016.00960.x

[11] Джессика М. Иглин, «Технологически искаженные представления о наказании» », https://www.repository.law.indiana.edu/cgi/viewcontent.cgi?article=3862&context=facpub 

[12] Риккардо Фольято, Мария Де-Артеага и Александра Чулдехова, «Уроки развертывания алгоритмический инструмент в сфере защиты детей», https://fair-ai.owlstown.net/publications/1422 

[13] https://qz.com/1427621/companies-are-on-the-hook-if-their-hiring-algorithms-are-biased/ 

[14] https://www.fdic. gov/analysis/cfr/2018/wp2018/cfr-wp2018-04.pdf

[15] Бен Бьюкенен, Эндрю Лон, Мика Массер и Катерина Седова, «Правда, ложь и автоматизация», https://cset. georgetown.edu/publication/truth-lies-and-automation/

[16] Бритт Пэрис и Джоан Донован, «Deepfakes and Cheap Fakes: The Manipulation of Audio and Visual Evidence», https://datasociety.