Стивен хокинг об искусственном интеллекте: Хокинг: искусственный интеллект — угроза человечеству

Хокинг: искусственный интеллект — угроза человечеству

  • Рори Кехлан-Джонс
  • Би-би-си

Подпишитесь на нашу рассылку ”Контекст”: она поможет вам разобраться в событиях.

Автор фото, Getty

Подпись к фото,

Будет ли искусственный интеллект нашим другом или нашим врагом?

Профессор Стивен Хокинг, один из самых уважаемых и известных британских ученых, заявил, что усилия по созданию мыслящих машин могут привести к тому, что само существование человечества окажется под угрозой.

В интервью Би-би-си он отметил, что «появление полноценного искусственного интеллекта может стать концом человеческой расы».

Это апокалиптическое предсказание прозвучало в ответ на вопрос о новой технологии, которой профессор пользуется для общения с внешним миром.

К счастью, далеко не все верят в такие мрачные перспективы.

Подпись к фото,

Стивен Хокинг опасается, что в однажды машины превзойдут своих создателей

Профессор Хокинг, страдающий латеральным амиотрофическим склерозом, для передачи речи пользуется специальной системой, разработанной американской компанией Intel.

В создании оборудования для Хокинга принимали участие и эксперты по обучению искусственного интеллекта из британской компании Swiftkey. Их технология, уже применяемая в клавиатуре смартфонов, «изучает» ход мыслей профессора и предлагает слова, которые тот мог бы употребить в следующей фразе.

Опасны ли нам роботы?

Стивен Хокинг отметил, что примитивные формы искусственного интеллекта, уже существующие на сегодняшний день, доказали свою полезность, но он опасается, что человечество создаст что-то такое, что превзойдет своего создателя.

Пропустить Подкаст и продолжить чтение.

Подкаст

Что это было?

Мы быстро, просто и понятно объясняем, что случилось, почему это важно и что будет дальше.

эпизоды

Конец истории Подкаст

«Такой разум возьмет инициативу на себя и станет сам себя совершенствовать со все возрастающей скоростью. Возможности людей ограничены слишком медленной эволюцией, мы не сможем тягаться со скоростью машин и проиграем», — сказал Хокинг.

Однако далеко не все придерживаются такой пессимистической точки зрения.

«Я думаю, что мы останемся хозяевами создаваемых нами технологий еще очень и очень долгое время, и они помогут нам решить многие мировые проблемы», — так считает Ролло Карпентер, создатель веб-приложения Cleverbot.

Программное обеспечение Cleverbot хорошо зарекомендовало себя в так называемом тесте Тьюринга. Суть теста Тьюринга заключается в следующем: может ли человек, общающийся с другим человеком и компьютером, на основании ответов на вопросы определить, в каком случае его собеседником является человек, а в каком — машина. Задача компьютера – так подстроиться под человеческую логику, чтобы его было невозможно распознать.

Cleverbot сумел обмануть немало людей, успешно сымитировав ход человеческой мысли.

Восстание машин

Автор фото, alamy

Подпись к фото,

В фильме Стэнли Кубрика «2001 год: Космическая Одиссея» взбунтовавшийся компьютер ставит под угрозу жизни астронавтов

Ролло Карпентер полагает, что до создания необходимых алгоритмов, которые приведут к появлению полноценных искусственных интеллектов, остается еще несколько десятилетий.

«Мы не можем с уверенностью сказать, что произойдет, когда машины превзойдут нас интеллектом. Следовательно, мы не можем предсказать, и как они поведут себя: станут ли они нам помогать, нас игнорировать или же рано или поздно нас уничтожат», — полагает он.

Однако Карпентер все-таки склонен считать, что искусственный интеллект окажется позитивной силой.

При этом профессор Хокинг не одинок в своем пессимистическом видении будущего.

Есть опасения, что в краткосрочной перспективе машины, обученные выполнять грязную механическую работу, лишат людей миллионов рабочих мест.

Автор фото, Getty

Подпись к фото,

Предприниматель и основатель частного космического агентства Элон Маск тоже опасается, что компьютеры могут стать угрозой нашему существованию

А в более отдаленном будущем машины могут стать основной угрозой нашему существованию, опасается инженер и предприниматель, основатель космической компании SpaceX Элон Маск.

Компьютерная речь

В интервью Би-би-си профессор Хокинг также затронул выгоды и опасности интернета.

Он процитировал слова директора Британского центра по контролю за коммуникациями (GCHQ) Роберта Ханнигана, который предупредил, что интернет становится командным центром для террористических организаций.

«Интернет-компании должны сделать больше для противодействия этой угрозе. Однако сложность заключается в том, чтобы при этом не пострадали ни свобода, ни право на личную жизнь», — предупредил Ханниган, а вслед за ним повторил и профессор Хокинг.

При этом прославленный ученый с большим энтузиазмом высказался о создании новых коммуникативных технологий, который позволят, например, ему самому писать гораздо быстрее.

Его собственный, генерируемый компьютером «голос» ни разу не менялся, несмотря на все инновационные технологии.

Сам Хокинг признает, что этот голос имеет слегка искусственное, механическое звучание, но отказывается менять его на что-то более естественное.

«Он стал моей визитной карточкой, и я ни за что не поменяю его на более «живой» голос с британским акцентом», — сказал он.

«Мне рассказывали, что когда больным детям требуется компьютерный голос, они просят, чтобы он звучал так же, как и мой», — отмечает Хокинг.

Хокинг рассказал о «новой форме жизни» на базе искусственного интеллекта — РБК

Британский ученый-физик Стивен Хокинг заявил, что машины на основе искусственного интеллекта заменят людей и станут «новой формой жизни». Он также призвал развивать технологии и науку, чтобы колонизировать планеты

Стивен Хокинг

(Фото: Francois Lenoir / Reuters)

Профессор Стивен Хокинг считает, что наделенные искусственным интеллектом (ИИ) машины в скором времени могут стать «новой формой жизни» и полностью заменят людей. Об этом он рассказал в своем интервью журналу Wired.

«Я опасаюсь, что искусственный интеллект​ скоро сможет вообще заменить людей», — заявил знаменитый британский ученый-физик.

По словам Хокинга, если сейчас люди создают компьютерные вирусы, недалек тот день, когда кто-нибудь разработает искусственный интеллект, «который улучшает и воспроизводит сам себя». По его мнению, это будет «новая форма жизни, которая превзойдет людей».

adv.rbc.ru

Ученый считает, что человечество должно уделить самое серьезное внимание науке и бросить силы на разработку новой космической программы, которая позволит в конечном итоге колонизировать подходящие для проживания людей планеты.

adv.rbc.ru

«Я считаю, мы достигли точки невозврата. Земля становится слишком маленькой для нас, население растет с угрожающей скоростью, и мы подвергаемся опасности самоуничтожения», — сказал Хокинг.

Ранее о том, что развитие искусственного интеллекта является «фундаментальной угрозой» человечеству, заявил основатель SpaceX и Tesla Илон Маск. По его словам, ни ДТП, ни авиакатастрофы, ни отсутствие лекарств или некачественная еда не способны сравниться по уровню опасности с развитием ИИ.

Маск, известный своими призывами к невмешательству государственных властей в бизнес, даже призвал ввести госконтроль за внедрением таких технологий.

Сам Хокинг ранее высказывался об ИИ не столь радикально, хотя и отмечал, что в перспективе искусственный интеллект сможет превзойти человеческий.

В октябре прошлого года, во время открытия центра изучения будущего интеллекта «Леверхульм» в Кембридже, ученый заявил, что не видит глубокой разницы между тем, что может быть достигнуто биологическим мозгом и с помощью компьютера. Поэтому, считает профессор, компьютеры могут подражать человеческому интеллекту и даже превзойти его.

Хокинг также отмечал, что предсказать, к чему приведет создание искусственного интеллекта и его соединение с человеческим разумом, невозможно.

«Короче говоря, появление мощного ИИ будет либо лучшим, либо худшим, что когда-либо случалось с человечеством», — заявил тогда ученый, отметив, что технология сможет как уничтожить, так и радикально изменить общество. ​

В этом году Стивену Хокингу исполнилось 75 лет. Журнал Wired поместил фотографию знаменитого ученого на обложку своего декабрьского номера.

Стивен Хокинг предупредил об опасностях искусственного интеллекта, но ИИ дал ему голос

Покойный Стивен Хокинг был главным голосом в дебатах о том, какую пользу человечество может извлечь из искусственного интеллекта. Хокинг не скрывал своих опасений, что однажды мыслящие машины смогут взять на себя управление. Он дошел до того, что предсказал, что будущие разработки в области ИИ «могут означать конец человеческой расы».

Но отношения Хокинга с ИИ были гораздо сложнее, чем это часто цитируемое высказывание. Глубокие опасения, которые он выразил, касались сверхчеловеческого ИИ, точки, в которой системы ИИ не только воспроизводят процессы человеческого интеллекта, но и продолжают расширять их без нашей поддержки — этап, который в лучшем случае наступит через десятилетия, если он вообще когда-либо произойдет. И все же сама способность Хокинга сообщать об этих страхах и всех других его идеях стала зависеть от базовой технологии искусственного интеллекта.

Противоречивые отношения Хокинга с ИИ

В центрах права интеллектуальной собственности и здравоохранения Университета ДеПола мы с коллегами изучаем влияние новых технологий, подобных тем, о которых беспокоился Стивен Хокинг. По своей сути, концепция ИИ включает в себя вычислительную технологию, предназначенную для того, чтобы машины функционировали с предвидением, которое имитирует и, в конечном счете, превосходит процессы человеческого мышления.

Хокинг предостерег от крайней формы ИИ, при которой мыслящие машины «взлетают» сами по себе, модифицируя себя и независимо проектируя и создавая все более совершенные системы. Люди, связанные медленным темпом биологической эволюции, были бы трагически перехитрины.

ИИ как угроза человечеству?

Задолго до того, как он дойдет до уровня сверхчеловеческих технологий, ИИ может найти ужасное применение. Ученые и комментаторы уже обеспокоены тем, что беспилотные летательные аппараты могут быть предшественниками смертоносных автономных роботов.

Сегодняшняя ранняя стадия искусственного интеллекта также поднимает несколько других этических и практических проблем. Системы ИИ в значительной степени основаны на непрозрачных алгоритмах, которые принимают решения, которые даже их собственные разработчики не могут объяснить. Лежащие в основе математические модели могут быть необъективными, и могут возникать вычислительные ошибки. ИИ может постепенно вытеснять человеческие навыки и увеличивать безработицу. А ограниченный доступ к ИИ может увеличить глобальное неравенство.

Столетнее исследование искусственного интеллекта, начатое Стэнфордским университетом в 2014 году, выявило некоторые из этих опасений. Но пока не обнаружено никаких доказательств того, что ИИ будет представлять какую-либо «неминуемую угрозу» человечеству, как опасался Хокинг.

Тем не менее, взгляды Хокинга на ИИ несколько менее паникерские и более нюансированные, чем ему обычно приписывают. По своей сути они описывают необходимость понимания и регулирования новых технологий. Он неоднократно призывал к дополнительным исследованиям преимуществ и опасностей ИИ. И он считал, что даже не сверхчеловеческие системы искусственного интеллекта могут помочь искоренить войны, бедность и болезни.

Хокинг говорит

Это явное противоречие — страх перед тем, что человечество в конечном итоге будет вытеснено ИИ, но в то же время оптимизм по поводу его преимуществ — возможно, исходит из его собственной жизни: Хокинг привык полагаться на ИИ для взаимодействия с миром.

Не говоря уже с 1985 года, он использовал ряд различных коммуникационных систем, которые помогали ему говорить и писать, кульминацией чего стал ставший уже легендарным компьютер, управляемый одним мускулом на его правой щеке.

Первая версия компьютерной программы была невыносимо медленной и подверженной ошибкам. Очень простой ИИ изменил это. Программа с открытым исходным кодом значительно ускорила его выбор слов. Что еще более важно, он использовал искусственный интеллект для анализа собственных слов Хокинга, а затем использовал эту информацию, чтобы помочь ему выразить новые идеи. Обрабатывая книги, статьи и сценарии лекций Хокинга, система стала настолько хороша, что ему даже не нужно было вводить термин, который люди больше всего ассоциируют с ним, «черная дыра». Когда он выбирал «the», «черный» автоматически предлагался следовать за ним, а «черный» предлагал «дыру» на экране.

Стивен Хокинг обсуждает систему прогнозирования, которая помогла ему общаться.

ИИ улучшает здоровье людей

Опыт Стивена Хокинга с такой базовой формой ИИ показывает, как не сверхчеловеческий ИИ действительно может изменить жизнь людей к лучшему. Прогнозирование речи помогло ему справиться с разрушительным неврологическим заболеванием. Другие системы на основе ИИ уже помогают предотвращать болезни, бороться с ними и облегчать их бремя.

Например, ИИ может анализировать медицинские датчики и другие данные о состоянии здоровья, чтобы предсказать вероятность развития у пациента тяжелой инфекции крови. В исследованиях он был значительно более точным — и давал гораздо больше заблаговременных предупреждений — чем другие методы.

Другая группа исследователей создала программу искусственного интеллекта для просмотра электронных медицинских карт 700 000 пациентов. Программа под названием «Глубокий пациент» выявила связи, которые не были очевидны врачам, идентифицировала новые модели риска для некоторых видов рака, диабета и психических расстройств.

ИИ даже привел в действие роботизированную хирургическую систему, которая превзошла хирургов-людей в процедуре на свиньях, которая очень похожа на один тип операции на пациентах-людях.

ИИ так много обещает улучшить здоровье людей, что сбор медицинских данных стал краеугольным камнем как разработки программного обеспечения, так и политики общественного здравоохранения в США. миллион американцев. Данные будут доступны системам искусственного интеллекта для анализа при изучении новых методов лечения, что потенциально улучшит как диагностику, так и выздоровление пациентов.

Все эти преимущества ИИ доступны прямо сейчас, и в разработке находятся другие. Они предполагают, что сверхчеловеческие системы искусственного интеллекта могут быть чрезвычайно мощными, но, несмотря на предупреждения Хокинга и его коллеги-технолога Илона Маска, этот день может никогда не наступить. А пока, как знал Хокинг, можно многое выиграть. ИИ дал ему лучший и более эффективный голос, чем его тело могло обеспечить, с которым он призывал как к исследованиям, так и к сдержанности.

Стивен Хокинг предупреждает, что искусственный интеллект может положить конец человечеству

  • Опубликовано

  • комментарии

    Комментарии

Это видео не может быть воспроизведено в вашем браузере, вам необходимо включить JavaScript

3 Для воспроизведения этого видео в вашем браузере

3.

Заголовок в СМИ,

Стивен Хокинг: «Люди, которые ограничены медленной биологической эволюцией, не могут конкурировать и будут вытеснены»

Рори Селлан-Джонс

Корреспондент по технологиям

Профессор Стивен Хокинг, один из выдающихся британских ученых, сказал, что усилия по созданию мыслящих машин представляют угрозу самому нашему существованию.

Он сказал Би-би-си: «Развитие полноценного искусственного интеллекта может означать конец человеческой расы».

Его предупреждение пришло в ответ на вопрос об обновлении технологии, которую он использует для общения, которая включает в себя базовую форму ИИ.

Но другие менее мрачны в отношении перспектив ИИ.

Физик-теоретик, страдающий боковым амиотрофическим склерозом (БАС) с болезнью двигательных нейронов, использует для речи новую систему, разработанную Intel.

К его созданию также привлекались специалисты по машинному обучению из британской компании Swiftkey. Их технология, уже используемая в качестве приложения для клавиатуры смартфона, изучает ход мыслей профессора и предлагает слова, которые он, возможно, захочет использовать в следующий раз.

Профессор Хокинг говорит, что примитивные формы искусственного интеллекта, разработанные до сих пор, уже оказались очень полезными, но он опасается последствий создания чего-то, что может сравниться с людьми или превзойти их.

Источник изображения, ALAMY

Подпись к изображению,

Фильм Стэнли Кубрика «2001» и его смертоносный компьютер HAL воплощают в себе опасения многих людей по поводу того, что ИИ может представлять угрозу для человеческой жизни. » он сказал.

Источник изображения, Cleverbot

Подпись к изображению,

Cleverbot — это программа, предназначенная для общения, как человек

«Люди, которые ограничены медленной биологической эволюцией, не могут конкурировать и будут вытеснены».

Другие настроены менее пессимистично.

«Я верю, что мы будем владеть этой технологией еще довольно долго, и ее потенциал для решения многих мировых проблем будет реализован», — сказал Ролло Карпентер, создатель Cleverbot.

Программное обеспечение Cleverbot учится на своих прошлых разговорах и набрало высокие баллы в тесте Тьюринга, обманывая большую часть людей, заставляя их поверить, что они разговаривают с человеком.

Восстание роботов

Г-н Карпентер говорит, что мы еще далеки от вычислительной мощности или разработки алгоритмов, необходимых для создания полноценного искусственного интеллекта, но полагает, что это произойдет в ближайшие несколько десятилетий.

«Мы не можем точно знать, что произойдет, если машина превзойдет наш собственный интеллект, поэтому мы не можем знать, будет ли она бесконечно помогать нам, или она будет игнорироваться и оттеснена на обочину, или предположительно будет уничтожена ею», — говорит он. .

Но он делает ставку на то, что ИИ станет положительной силой.

Профессор Хокинг не одинок в своих опасениях за будущее.

В краткосрочной перспективе есть опасения, что умные машины, способные выполнять задачи, которые до сих пор выполняли люди, быстро уничтожат миллионы рабочих мест.

Источник изображения, Getty Images

Подпись к изображению,

Илон Маск, исполнительный директор производителя ракет Space X, также опасается искусственного интеллекта «.

Роботизированный голос

В своем интервью Би-би-си профессор Хокинг также говорит о преимуществах и опасностях Интернета.

Он цитирует предупреждение директора GCHQ о том, что сеть становится командным центром террористов: «Интернет-компании должны сделать больше, чтобы противостоять угрозе, но трудность заключается в том, чтобы сделать это, не жертвуя свободой и конфиденциальностью».