Содержание
Минимальный тест Тьюринга: докажи одним словом, что ты — человек
- Дэвид Робсон
- BBC Future
Подпишитесь на нашу рассылку ”Контекст”: она поможет вам разобраться в событиях.
Автор фото, Getty Images
По мере того как компьютеры становятся все умнее, способы провести грань между нами и разумными машинами становятся все изощреннее. Но есть как минимум одно волшебное слово…
Представьте себе, что вы и робот, оснащенный искусственным интеллектом, предстали перед неким судьей, который вас обоих не видит, а только слышит.
Этот судья должен вынести решение, кто из вас человек — и значит останется жить, а второй — умрет.
И вы, и разумный робот — вы оба хотите остаться в живых. Судья умен и справедлив. И он говорит: «Вы должны мне сказать всего одно слово. На основании этого слова я решу, кто из вас человек».
Какое слово вы бы выбрали?
Что-нибудь из возвышенных духовных концепций — например, «душа»? Или нечто отражающее ваши вкусы («музыка»)? Или чисто телесную функциональную особенность («пукнуть»)?
Этот незамысловатый эксперимент может показаться надуманной забавой, но некоторые ученые, занимающиеся проблемами познания, считают, что он может выявить наши основные представления об искусственном интеллекте и в то же самое время позволит открыть некоторые удивительные вещи о том, как работает наш разум.
- Три угрозы человечеству, которые несет искусственный интеллект
- Не бойтесь искусственного разума, он нас спасет
- Искусственный интеллект — угроза или помощник для человечества?
- Каким не должно быть общество будущего — девять советов
В конце концов, автоматизированные боты в чатах и прочая генерирующая речь аппаратура все больше и больше задействуют искусственный разум, чтобы поддерживать разговор с нами, людьми, или писать тексты, с которыми мы сталкиваемся ежедневно в интернете.
Можем ли мы наверняка сказать, что сотрудник клиентской службы, с которым мы обмениваемся сообщениями онлайн, — реальная личность? Или это всего лишь болтливый алгоритм?
Сможем ли мы отличить историю, придуманную машиной, от написанной настоящим писателем, потратившим на нее творческие силы и вдохновение?
Коммуникативный искусственный интеллект — уже давно не теория, и нам надо быть готовыми к общению с ним.
Автор фото, Getty Images
Подпись к фото,
Сейчас легко отличить роботов от людей, но по мере того как компьютеры будут становиться все умнее, нам придется научиться четко распознавать, кто есть кто — человек ли по ту сторону экрана или машина
Джон Маккой, один из исследователей Массачусетского технологического института, говорит, что однажды его вдохновил на эксперимент простой разговор с коллегами.
Они обсуждали так называемый тест Тьюринга, впервые разработанный британским ученым Аланом Тьюрингом в 1950 г. и направленный на то, чтобы определить, насколько поведение компьютера отлично (или неотличимо) от человеческого.
(Участники этого теста не видят друг друга, и если судья не может точно сказать, кто из собеседников человек, то считается, что машина прошла тест. Беседа ведется в режиме «только текст», например, с помощью клавиатуры и экрана компьютера-посредника. — Ред.)
- Искусственный интеллект взял еще один рубеж. Теперь он может спорить с человеком
- Девять алгоритмов, которые уже принимают за вас решения
«Нам показалось интересным установить, что может стать минимальной версией теста Тьюринга», — объясняет Маккой.
И в конце концов они свели весь тест к единственному слову.
«И тогда возник вопрос: какие слова выбрали бы люди?» Вопрос этот в итоге вдохновил ученых на целое исследование, результаты которого опубликованы в этом году в «Журнале экспериментальной социальной психологии» (Journal of Experimental Social Psychology).
В первом из экспериментов Маккой с коллегой Томером Аллманом задали более чем тысяче участников упомянутый выше вопрос и затем проанализировали полученные таким образом слова, попытавшись найти какие-то общие тенденции.
Вот какими были 10 наиболее часто названных слов (по степени их популярности):
- Любовь (134 человека)
- Сострадание (33)
- Человеческий (30)
- Пожалуйста (25)
- Милосердие (18)
- Сопереживание (17)
- Эмоция (14)
- Робот (13)
- Человечество (11)
- Живой (9)
Автор фото, Getty Images
Подпись к фото,
Юмор, сарказм и слова, относящиеся к функциям организма, были расценены как нечто, позволяющее опознать человека
Пропустить Подкаст и продолжить чтение.
Подкаст
Что это было?
Мы быстро, просто и понятно объясняем, что случилось, почему это важно и что будет дальше.
эпизоды
Конец истории Подкаст
«Поразительно, насколько много у людей совпало, — говорит Маккой, который сейчас работает в Пенсильванском университете. — Они могли выбрать любое слово из стандартного английского языка и все-таки выбрали то же, что и многие другие».
Возьмите хотя бы слово «любовь» — его выбрали около 10%. Всего же четверть всех участников выбрала хотя бы одно из первых четырех слов приведенного списка.
Самыми популярными категориями были слова, относящиеся к телесным функциям (например, «какашка»), к вере и прощению («надежда», «милосердие»), к эмоциям («сопереживание») и к пище («бананы»).
Затем Маккой и Аллман провели второй эксперимент, чтобы выяснить, как другие люди реагируют на слова, полученные при помощи первого эксперимента.
Действительно ли самые популярные ответы наиболее успешно передают «человечность», как считали участники первого этапа исследования? И если это так, то какие слова делают это наилучшим образом?
Автор фото, Getty Images
Подпись к фото,
Любовь — это концепция, которую компьютеру крайне трудно понять
Итак, исследователи объединили полученные ими слова в пары (например, «человеческий» и «любовь») и предложили второй группе участников определить, какое из этих двух наиболее вероятно выбрано человеком, а какое — компьютером.
Как мы уже увидели в первом эксперименте, «любовь» была одним из самых популярных слов.
Однако участники второго этапа сочли самым эффективным слово «какашка».
Конечно, может показаться удивительным, что экскременты стали секретным паролем человечества, но такие результаты свидетельствуют: осознанно нарушая табу и провоцируя, а не просто описывая некую эмоцию, вы наиболее прямо сообщаете, что вы — человек. И тут можно зайти далеко, не останавливаясь на невинной какашке.
Некоторые другие «чисто человеческие» слова также вызывали эмоциональную реакцию — значительно более сильную, чем предполагает их толкование словарем. Например, «пожалуйста» или «влажный».
Еще были слова, которые просто приятно произносить. Попробуйте сказать «ономатопея» несколько раз подряд. Здорово, правда?
- Больше, чем робот: секс-кукла, с которой можно и поговорить
- Ведущий с искусственным интеллектом: а вы отличите настоящего?
Говоря в общем, такой выбор «человеческих» слов справедливо отражает нынешнее состояние искусственного интеллекта.
Хотя боты могут составлять простые описательные предложения и даже вполне связные короткие тексты, им по-прежнему недоступны юмор и сарказм.
Ведь юмор требует глубокого понимания контекста, культурных ассоциаций, заложенных практически в каждое слово.
Автор фото, Getty Images
Подпись к фото,
Некоторые слова (такие, как «влажный») рождают глубокую эмоциональную реакцию, никак не отраженную определением в словаре
Но пойдем дальше этих причудливых рассуждений. Как представляется Маккою, этот эксперимент может стать полезным инструментом для понимания того, что люди могут думать о других группах людей.
Например, какое слово вы бы выбрали, чтобы показать, что вы — женщина? Или что вы — француз? Или социалист?
В каждом из случаев ваш выбор отразит те качества, которые, как мы считаем, свойственны той или иной группе людей и которые члены этой группы примут в качестве своих. А для тех, кто не принадлежит к данной группе, эти качества покажутся чуждыми, непонятными или недостойными упоминания.
- Боты изобрели свой язык: почему Facebook испугался искусственного интеллекта?
- За пределом понимания: можно ли доверять искусственному интеллекту?
- Хокинг: искусственный интеллект — угроза человечеству
Между тем, Маккой обнаружил, что его «Минимальный тест Тьюринга» полезен для провоцирования дальнейшего обсуждения сущности искусственного интеллекта.
«Было забавно задавать такой вопрос видным психологам: они крепко-крепко задумывались над тем, какое слово выбрать, а позже, спустя несколько часов, в возбуждении прибегали ко мне, чтобы изменить свой ответ», — рассказывает Маккой.
«Этот очень простой вопрос заставляет вас глубоко задуматься об отличии человеческого разума от компьютерного и о том, как эти два разума взаимодействуют».
Его собственный любимый ответ обманчиво прост. «Одно из тех слов, которые мне понравились больше всего, — это «м-м-м…» — по-моему, очень умный выбор», — говорит Маккой.
В общем, полезно запомнить: если в нашем мире, все больше зависящем от компьютеров, вы однажды окажетесь в ситуации, когда необходимо будет доказать, что вы человек, — шутите. Или выбирайте слова, которые не принято произносить в приличном обществе.
—
Прочитать оригинал этой статьи на английском языке можно на сайте BBC Future.
Самый большой тест Тьюринга / Хабр
23 июня 2012 года Алану Тьюрингу исполнилось бы 100 лет. И хотя эта дата осталось незамеченной в России (и на Хабре), ее широко отмечали в зарубежном научном сообществе. 2012 год бы провозглашен годом Алана Тьюринга. В праздновании юбилея приняли участие многочисленные университеты, научные лаборатории, ассоциации, коммерческие компании. Он включил в себя лекции, конференции, выставки, фильмы, книги, написание стихов, посвященных Тьюрингу, учреждение стипендий, а так же различные соревнование. Одно из соревнований особенно привлекло мое внимание: Turing100 — очень масштабный тест Тьюринга. Это было самое большое соревнование среди примерно 150 тестов Тьюринга, проведенных к сегодняшнему дню. Обычно в тесте Тьюринга участвуют четыре системы и четверо судей. В соревновании Turing100 приняли участие пять чат-ботов, 30 судей и 25 скрытых человек.
Автор изображения — Harjit Mehroke
Turing 100 был организован Университетом Рединга (Великобритания). Университет — один из европейских центров, занимающихся искусственным интеллектом, уже проводил премию Лебнера в 2008 году. Организаторы конкурса: Кевин Ворвик и Хума Шах в данный момент участвуют в проекте RoboLaw — Регулирование новых роботизированных технологий в Европе: закон и этика для роботов.
В роли искусственных интеллектов приняли участие лауреаты премии Лебнера разных лет и просто заметные участники:
- Cleverbot www.cleverbot.com
- Ultra Hal www.zabaware.com/?gclid=CLyu3duM9LACFRIjfAodlBo1NA
- Elbot the Robot www.elbot.com
- JFRED www.robitron.com
- Eugene Goostman www.princetonai.com/bot/bot.jsp
Для тех, кто не знаком с соревновательным процессом расскажу подробнее про организацию процесса. Соревнование проходило в 5 сессий. Каждая сессия длилась пять минут, по истечении времени сессию отключали строго по таймеру. Было два типа тестов: разговор один на один с невидимым собеседником (скрытым человеком или программой) и с двумя на разделенном мониторе. В обоих случаях судье предлагалось решить, с кем или чем он имеет дело, в сдвоенной беседе могло быть как две машины, так и два человека. Скрытые люди были проинструктированы вести себя естественно и не пытаться подражать компьютерам. В конце концов конкурс проводится для того, чтобы машины притворялись людьми, а не наоборот. Начинал разговор всегда судья, взаимодействие должно было осуществляться строго по одной реплике. Нельзя было отправлять вторую, не дождавшись ответа на первую.
Такие строгие рамки как раз и позволяют программам быстро сбивать с толку судей. Впрочем, и судьи расставляют ловушки.
Один из скрытых людей Мэтт Уитби был в тупике, когда его спросили: «Я переел жаренной картошки. Должен ли я увидеть пожарного?». Часто задавали вопросы об окружающей обстановке «Солнечно ли на улице?», «Холодно ли в комнате?».
Всего было проведено более 150 взаимодействий между программами, судьями и тайными людьми. Такая большая выборка сделала результаты именно этого соревнования более статистически значимыми, чем стандартные тесты Тьюринга.
Победителем Turing100 стал Eugene Goostman, до этого занимавший высокие места, включая несколько вторых, но еще ни разу не выигрывавший. Ему удалось обмануть судей в 29% случаев. Как отмечает один из судей, успех Юджина обусловлен довольно проработанной личностью бота: он притворяется 13-тилетним мальчиком из Одессы, с морской свинкой и отцом гинекологом.
Смещение в сторону характера, конечно, демонстрирует уклон в развитии чатботов в сторону имитации и притворства, а не развития собственно диалоговых способностей. Было бы интересно сравнить возможности Юджина с включенной и отключенной «личностью». По результатам конкурса организаторы Хума Шах и Кевин Уорвик получили довольно большой корпус данных, и постепенно публикуют различные аналитические работы. К сожалению, пока опубликовано довольно мало результатов. Из уже доступного наиболее интересным результатом мне показалось то, что носители английского чаще принимали за машину тех, кто выучил английский (пусть и очень хорошо) и наоборот, люди, владеющие английским как вторым языком чаще считали чат-ботом именно носителей английского, как родного. Этот результат еще раз подчеркивает важность речи, как одного из основных каналов восприятия собеседника, учитывая, что это чувствуется даже в коротких пятиминутных письменных диалогах.
Ну и в заключение, я початилась по пять минут с каждой из систем (кроме Фреда, мне почему-то не удалось его запустить).
Ниже интересные выдержки из наших диалогов. Пожалуй, я согласна с судьями, Юджин действительно выглядит человечнее остальных. Кроме того, что он многословнее и эмоциональнее остальных, его «речевые способности» кажутся тоже более продвинутыми. Он запоминает контекст, может поддержать тему на протяжении нескольких реплик, меняет направление разговора довольно ненавязчиво. Так что, похоже, что дело тут не только в морской свинке.
Cleverbot
Me: You like movies?
Cl: Yes.
Me: Which one the most?
Cl: Fenerbahce.
Me: What is it?
Cl: I think it is a word muncher.
Me: Fenerbahce?
Cl: What is that?
Me: You told it’s your favourite movie.
Cl: No, I didn’t.
Ultra Hal
Me: Do you like movies?
UH: I enjoy a good movie.
Me: Which one the most?
UH: Hmm. I don’t know!
Me: Think about it!
UH: I’ll buy everything if you want. *laugh*.
Me: I’m not selling anything!
UH: Look at your life.
Me: So what?
UH: I don’t know.
Me: Why you told me to look at my life?
UH: I am so sympathetic with your lucky life.
Elbot
Me: Do you like movies?
El: Blade Runner is a cult classic for us robots. The director created a robot cut especially for us!
Me: Why you like it?
El: Because…because….grrrrrrrr… I forgot. All this electromagnetic radiation around here is giving me chronic fatigue syndrome.
Me: Memory loss?
El: I realize this is a typical marketing question, but I’m supposed to ask it, otherwise they’ll use the low-grade oil on me. So, where did you find out about me?
Me: I read about Turing test.
El: Ah the Turing Test. People are always trying to get me to take it, but I just pretend not to understand.
Me: You are doing a good job.
El: Why, thank you very much. I like you, too. If I could have a pet you would be my first choice.
Eugene Goostman
Me: Hello!
EG: Hello, I’m really glad to have the chance to chat with you! My guinea pig Bill sends his regards too!
Me: Do you like movies?
EG: I like comedies and find action movies to be stupid. As for the thrillers — I always fall asleep while watching them.
Me: Which one the most?
EG: I can’t make a choice right now. I should think it out later. Wonna ask me something more?
Me: Just take your time and think abouit it.
EG: Dummy statement.
Me: Don’t be rude!
EG: All we use more brutal words when we don’t see each other. I think it’s a kind of psychological law. If I’m not mistaken — you still didn’t tell me where you live. OR it’s a secret?:-)
Me: I live in Moscow.
EG: Moscow? Hope it’s a good place to live.
Me: So so.
EG: What are any interesting site-seeings in Moscow?
Me: The Kremlin.
EG: By the way, have you heard how one Russian on-line translator translates «Bin Laden»? It says — «Trashcan is full!»:-)))
Me: Really? It’s funny!
EG: No, it was extremely serious.
Пройти через стену Тьюринга — Троицкий вариант — Наука
Альберт Ефимов
Могут ли быть разумными машины, которые способны играть в настольные игры или распознавать образы лишь в своем уютном виртуальном мире? Чтобы стать надежными и удобными помощникам людей, машинам надо научиться общаться и действовать в физической реальности, подобно людям. Этим проблемам посвящена статья Альберта Ефимова, кандидата философских наук, вице-президента, директора управления исследований и инноваций Сбера, зав. кафедрой инженерной кибернетики НИТУ «МИСиС».
Представления о наделенном искусственным разумом человекоподобном существе намного древнее, чем считают поклонники научной фантастики, приписывая идею о роботах Карлу Чапеку, который придумал этот термин в 1920-х. Предание о рукотворном существе, которое умеет всё то же, что и человек, родом из глубокой античности. Мы читаем об этом в притчах Чжуан-цзы из Древнего Китая, в древнегреческих мифах о Пигмалионе и «умных» треножниках — помощниках Гефеста. Всерьез задумался об «автоматизации» рассуждения Аристотель, описавший силлогизмы — формы логических построений, служащие элементарными «кирпичиками» рационального мышления. Еще одной важной вехой на этом пути стали работы Готфрида Лейбница, который в конце XVII века не только заложил основы математической логики, но и много рассуждал о возможностях алгоритмизации мышления.
В конце XVII века Лейбниц описал концепцию рациоцинатора (ratiocinator) — логической системы, которая позволяет выразить любые производные понятия ясным и простым способом на основе базовых элементарных концепций и строгих правил, совершая над ними операции, подобные математическим. Замысел создания такой «философской машины» был грандиозен, но в силу неразвитости техники оставался нереализованным еще много лет. Первый значительный шаг к этому был сделан лишь в 1830-х, когда Чарлз Бэббидж попробовал сконструировать аналитическую машину, механический прообраз современных программируемых компьютеров. Результат оказался не слишком успешным, однако попытки «механизировать» рассуждения не прекращались.
В 1930-х Курт Гёдель сформулировал, а затем и доказал теоремы о неполноте, согласно которым ни одна система формальной арифметики не может быть одновременно и полной, и внутренне непротиворечивой. Иначе говоря, не существует такой системы, которая позволяет доказывать или опровергать любые утверждения. На некоторое время это поставило многих специалистов в тупик. Но уже вскоре Алан Тьюринг и Алонзо Чёрч ввели понятия вычислимых (решаемых в той или иной системе) функций и показали, что все они могут быть решены не с помощью формул, а алгоритмически — например, с помощью машины Тьюринга.
Тезис Тьюринга в самой простой формулировке [1] гласит, что универсальная машина Тьюринга может выполнить любое вычисление, которое способен выполнить человек-вычислитель. Эта удивительная по простоте и глубине идея открыла путь к появлению первых компьютеров, над которыми сам Тьюринг трудился в годы Второй мировой войны. Тогда же британский ученый задумался и о создании «разумной машины» (intelligent machine) — термин «искусственный интеллект» еще не появился.
Шахматы и шифры
Многие специалисты и сегодня считают, что, прежде чем приступать к созданию искусственного интеллекта, следует выяснить природу и устройство естественного. Однако Тьюринг смотрел на проблему совершенно иначе. Он, по сути, наследовал идеям Рене Декарта, который считал живые организмы полностью автоматическими существами, полагая, что полноценное сознание и мышление свойственны лишь человеку. В такой картине мира разум человека, его интеллект отделены от реального мира как часть иной «сферы сознания». Так же и в представлениях Алана Тьюринга интеллект практически не зависел от его физического носителя.
В своей знаменитой статье 1950 года «Вычислительные машины и разум» [2] (Computing Machinery and Intelligence) он определил несколько областей, представляющих «высшие проявления» человеческого интеллекта, на моделировании которых и следовало в будущем сосредоточиться. Это изучение языков (и переводы), игры (шахматы и т. п.), математика и криптография (включая решение загадок). Если в этих сферах деятельность компьютера невозможно отличить от человеческой, рассуждал Тьюринг, то их мышления эквивалентны и можно сказать, что мы имеем дело с «разумной машиной».
Неужели Тьюринг считал, что самое важное в человеке — это уметь играть в шахматы, вести возвышенные диалоги или разгадывать криптографические загадки? Это не так. Британский математик был уверен, что для создания интеллектуальных машин, имеющих способности, сравнимые с человеческими, недостаточно просто научить машину взаимодействию с физическим миром. В своем отчете для Национальной физической лаборатории 1948 года Тьюринг писал, что такая машина «не будет иметь возможности оценить такие важные для человека вещи, как еда, спорт или секс». Признав, что, разрабатывая машину, способную к взаимодействию с реальными миром, мы идем по пути более гарантированного создания искусственного разума, Алан замечал, что в 1948-м этот путь кажется более долгим и дорогим, чем учить компьютер играть в шахматы.
Стоит сказать, что уже через пару лет после этой публикации появились «черепахи» [3] Уолтера Грея — одни из первых автономных машин современности. Весьма примитивно устроенные существа демонстрировали неожиданно «разумное» поведение и могли, например, находить свою зарядную станцию с помощью фототаксиса, ориентируясь по свету. Эта сложность рождалась в прямом взаимодействии реального мира с простейшим «сознанием» роботов, и, если бы Тьюринг писал свою статью позднее, он наверняка сформулировал бы проблему иначе.
«Википедия»
Однако именно статья, написанная более 70 лет назад, задала концептуальные основы для работы многих поколений разработчиков искусственного интеллекта. Согласно Тьюринговому подходу высокоуровневые интеллектуальные функции мозга можно воспроизвести на основе искусственной системы, компьютера, без того, чтобы имитировать систему в физическом мире. Такие представления развивал и описанный в той же статье тест.
Внутри и за стеной
В своих размышлениях над тестом Тьюринг отталкивался от викторианской «игры в имитацию». По ее условиям ведущий, обмениваясь записками с игроками, должен определить, кто из них женщина, а кто притворяется. Разумеется, «судья» при этом их не видит, от игроков его отделяет стена, непроницаемая для всего, кроме обмена символьной информацией — записочками, или, говоря по-современному, сообщениями в чате. Такое испытание можно рассматривать как «тест на интеллект» для мужчины, которому требуется имитировать «женские» (конечно, в представлениях викторианского времени) поведение и реакции. Тест Тьюринга переносил эту ситуацию на игру с компьютером, который должен имитировать живого человека, оставаясь скрытым от судьи всё той же «стеной».
Эта стена кажется обязательным элементом теста, ведь без нее мы сразу увидим, с кем имеем дело. Она скрывает физическую реальность собеседника, но при этом и сводит всё его мышление к ограниченному набору процессов. При этом даже сам герой нашего рассказа признавал, что полноценное человеческое познание мира невозможно без прямого взаимодействия с ним. Однако в то время имитация таких задач, как занятия спортом, еда или секс, казалась совершенно немыслимой, поэтому британский математик отнес их к неопределенно далекому будущему, предложив сосредоточиться на играх, языках и криптографии.
В результате Тьюринг дал старт своеобразной гонке между человеком и машиной исключительно в виртуальном пространстве. При этом идея такого теста стимулировала разработку систем, выполняющих какие-то определенные, узкие функции — будь то игра в шахматы, перевод или управление автомобилем — лучше людей и даже готовых заменить нас в той или иной области. Узость возможностей интеллектуальной машины была изначально заложена в парадигмальной идее британского математика, ограничивающей интеллект лишь простыми вербальными, символьными коммуникациями и игнорирующей все остальные модальности. Можно ли назвать интеллект, который умеет играть в шахматы, болтать и разгадывать загадки, общим? Вряд ли.
Однако до тех пор, пока робот или компьютер остается отделен от человека и от мира стеной, он не способен полноценно взаимодействовать с ними, и подлинная интеллектуальность машины подменяется сложностью реализуемых ею функций. Возможно, для беспилотного автомобиля или шахматной программы этого достаточно, но в погоне за общим искусственным интеллектом без смены парадигмы уже не обойтись: придется «ломать стену» и переходить к новой, посттьюринговой методологии [4]. Суть ее в том, что все упомянутые Тьюрингом элементы «теста» составляют единое целое и рассматриваются в комплексе: наблюдатель-судья, испытуемый (человек или компьютер) и инструмент вопрошания (стена превращается в среду взаимодействия, интерфейс между машиной и человеком).
Проверка перепиской
Для легкого объяснения можно обратиться к мысленному эксперименту «девушка по переписке», предложенному [5] Андреем Алексеевым. Допустим, юноша в поисках пары обращается к сервису знакомств через Интернет. Указав подходящие параметры (возраст, образ жизни и т. п.), он получает список пользовательниц и начинает переписку с одной из них. После долгого виртуального общения молодой человек наконец приглашает ее на свидание, лишь тогда обнаруживая, что всё это время разговаривал с программой. Такое развитие событий эквивалентно успешному прохождению искусственным интеллектом теста Тьюринга в его классической версии. Ожидая, что развитие технологий продолжится в рамках уже существующих тенденций, когда-то заданных Тьюрингом, Алексеев предположил, что «в недалеком будущем воплотится и сценарий „девушка по переписке“».
Однако можно заметить, что даже если этот сценарий и воплотится, он не имеет никакого практического смысла. Переписка «через стену Тьюринга» лишает машину возможности всестороннего полезного взаимодействия с человеком и миром. Чтобы пояснить это, представим иной вариант развития событий в том же эксперименте. Допустим, что когда дело дошло до свидания, юноша встречает свою партнершу по переписке в кафе — она вполне живая и настоящая. Однако разговор в офлайне не клеится: оказывается, у них не так много общих интересов, а остроумные и уместные реплики, которые давала девушка при переписке, ей автоматически подсказывал искусственный интеллект. Разочарованный молодой человек возвращается домой и пишет ей, что от такой встречи ему немного не по себе, но та отвечает цитатой из его любимого сериала, и переписка возобновляется.
Таким образом, стены, разделяющей машину и человека, больше не существует, она не нужна для оценки искусственного интеллекта и его взаимодействия с людьми. При этом компьютер оказывается более близким и понятным эмоционально, чем даже живая собеседница, он «более человечен, чем сам человек». В этой связи можно снова вспомнить Платона с его «вечными идеями», реализациями которых являются реальные объекты. Искусственный интеллект, не ограниченный стеной Тьюринга, может воплощать «идею интеллекта» так же, как это делает сам человек, наравне и во взаимодействии с ним. Человек знает, с кем имеет дело, и понимает, что с машиной ему лучше: интереснее, полезнее, надежнее.
После Тьюринга
Настоящая мыслящая машина должна стать продуктом разносторонних взаимодействий с человеком и окружающим миром: вербальных и невербальных, происходящих как в виртуальной среде, так и в реальной. Так, классический тест Тьюринга охватывает только области вербального и виртуального взаимодействия, как и схемы Терри Винограда и большинство других популярных тестов искусственного интеллекта. Это неудивительно, ведь все они находятся в заданной британским гением парадигме, «за стеной». Сломать ее — значит выйти в области невербального и реального освоения мира искусственным интеллектом.
В конце концов, сегодня мы понимаем, что определенными формами сознания обладают многие животные, включая даже головоногих моллюсков. И каждый раз мышление и его проявления оказываются связаны с реальными условиями существования, с телесностью живого существа, его моторикой. По мнению нашего выдающегося философа Давида Дубровского, развитие психики затронуло [6] лишь те организмы, которые активно передвигаются во внешней среде. Похоже, что полноценное познание окружающего мира в принципе невозможно без физического взаимодействия с ним. Поэтому условием создания «общего» («сильного») искусственного интеллекта будет возможность работы в различных модальностях и разных средах. Ему требуется выход в области невербального и физического.
Примерами искусственных интеллектов, которые справляются с невербальными задачами, могут служить уже существующие системы, играющие в компьютерные игры, или виртуальная телеведущая Елена [7] (созданная в Лаборатории робототехники Сбера, она полностью имитирует настоящую телеведущую, включая движения, эмоции и жесты). Однако и первые, и вторая не покидают пределов виртуального. Настоящее взаимодействие с человеком в физическом мире до сих пор остается чрезвычайно сложной задачей. Для общего искусственного интеллекта этого недостаточно: такая машина должна охватывать все четыре области взаимодействий и сред.
Пришествие техноумвельтов
Еще в XIX веке видный биолог Якоб фон Икскюль отметил, что разным живым существам свойственны разные сферы мировосприятия — умвельты. Умвельт бабочки заметно отличается от умвельта рыбы или человека. По аналогии с ними четыре области взаимодействий, возможные для машин, предлагается [8] называть техноумвельтами. Техноумвельт — домен мировосприятия, то, как машина видит окружающий мир. Умвельт человека знаком каждому из нас, а техноумвельты беспилотных автомобилей, пользующихся радарами и лидарами, многие наблюдали в видеороликах.
Описанные выше измерения взаимодействий человека и машины (вербальное — невербальное и виртуальное — физическое) дают четыре независимых техноумвельта: вербальное виртуальное, невербальное виртуальное, вербальное физическое и невербальное физическое. Универсальность общего искусственного интеллекта (AGI) возможна только при свободном перемещении машины между всеми четырьмя техноумвельтами. Текущее поколение ИИ способно распознавать объекты разного класса без предварительного обучения. Это важнейшее достижение, однако оно никак не связано с возможностью работать в разных техноумвельтах. По-видимому, для этого потребуется реализовать своего рода «переводчики» с языка, свойственного одному домену мировосприятия, на язык другого. Лишь тогда искусственный интеллект сможет стать по-настоящему мультимодальным, сумеет решать весь спектр возможных задач и полноценно «общаться» с человеком.
Его появление навсегда изменит наше взаимодействие с техникой. После тысячелетий философских размышлений и научно-технического прогресса люди впервые в истории столкнутся с по-настоящему «умными» вещами, с устройствами, которые могут обладать даже более полными и точными знаниями о мире и о нас, чем мы сами. Такая ситуация потребует нового взгляда на то, чем является человек и его разум, переопределить многие устоявшиеся представления.
Эти процессы уже начались: сегодня мы начинаем «растворяться» в окружающих нас повсюду технологиях и гаджетах, размывается само понятие «человека». По мере освоения компьютерами новых сфер деятельности, будь то шахматы или перевод, они перестают считаться исключительной прерогативой человека. Возможно, человек — это то, что машина сделать еще неспособна. Людям-инженерам по силам создать машину, которая может самостоятельно добраться из точки А в точку Б, но нужно стать философом, чтобы увидеть место, где находится эта точка Б.
1. elenph.org/vivo/individual?uri=https://litvinovg.pro/text_structures%23elenphArticle/w2phtml_shalak_mashina_tyuringa
2. ru.wikipedia.org/wiki/Вычислительные_машины_и_разум
3. en.wikipedia.org/wiki/Turtle_(robot)
4. intellekt-izdanie.osu.ru/arch/2020_2_74.pdf
5. artsoc.jes.su/s207751800007698-6-1/
6. ncbi.nlm.nih.gov/pmc/articles/PMC7179338/
7. sberbank.ru/ru/press_center/all/article?newsID=6dce28d0–186d-4822–9221–59610068bdf4&blockID=1303®ionID=77&lang=ru&type=NEWS
8. iphras.ru/uplfile/zinaida/ROOTED/aspir/autoreferat/efimov/dissertatsiya_efimov_final_151020.pdf
См. также:
Тест Тьюринга пройден?
Что такое тест Тьюринга?
Это простой способ проверить, содержит ли компьютер (искусственный) интеллект или нет. Однако если компьютер успешно проходит этот тест, это не обязательно означает, что он содержит настоящий интеллект.
Несмотря на то, что было несколько утверждений (таких как это), что тест Тьюринга — не лучший способ проверить интеллект компьютера, тест Тьюринга остается самым популярным.
прежде всего потому, что было несколько упоминаний о нем в нескольких известных голливудских фильмах (например, Ex Machina).
Кто придумал тест Тьюринга?
Как следует из названия, тест Тьюринга был предложен Аланом Тьюрингом, британским пионером в области информатики, математиком, логиком, криптоаналитиком, философом, математическим биологом, марафонцем и бегуном на сверхдлинные дистанции. (Да, парень интересовался многими вещами.)
Помимо написания статьи, предлагающей этот тест, он также известен как парень, который внес, вероятно, самый большой вклад в британскую разведку во взломе машины Enigma в Блетчли-Парке, что повлияло на окончание Второй мировой войны.
Если имя вам знакомо, возможно, вы знаете его по фильму «Игра в имитацию», где его сыграл Бенедикт Камбербэтч.
Как провести тест Тьюринга?
Это просто. Поместите компьютер (A) и человека (B) с одной стороны и человека-тестер (C) с другой стороны.
Если тестер (С) не может распознать, какой кандидат является человеком, а какой — компьютером после ряда вопросов, значит, компьютер успешно прошел тест Тьюринга.
Конечно, тестировщику (C) не разрешается видеть участников, поэтому он не может принять решение на основе их внешности.
Самый распространенный сегодня способ физически разделить всех участников теста — это сделать какой-то интерфейс для чата.
А как же Юджин Густман и другие чат-боты? Разве они не прошли тест Тьюринга?
Чат-боты никоим образом не являются интеллектуальными.
Хотя было много заявлений о том, что Юджин Густман прошел тест Тьюринга, это просто неправда. Скажем так, он во многом обманул тест.
(дальнейшее чтение).
Разработчики Cleverbot также утверждали, что он прошел тест Тьюринга некоторое время назад, но почти все знают, что он не очень умен (если вы этого не сделаете, пообщайтесь с ним сами).
В своей книге «Сингулярность близка» (опубликованной в 2005 году) Рэй Курцвейл предсказывает, что со временем будет появляться все больше и больше ложных утверждений.
Удастся ли нам создать настоящий ИИ?
Да (ну в конце концов). Но есть еще много вещей, которые нам сначала нужно выяснить.
Давайте перечислим некоторые из них здесь (используя это как источник):
- Слабость современного компьютерного оборудования .
- Относительно минимальное финансирование исследований ИИ .
- Сложность интеграции нескольких сложных компонентов вместе для создания сложной динамической программной системы, в случаях, когда поведение интегрированной системы чувствительно зависит от каждого из компонентов.
Ага, несмотря на то, что компьютерное железо быстро становится сильнее, нам все еще нужно немного улучшить его, чтобы они могли поддерживать настоящий интеллект.
Да, есть программа IBM Watson и да, Google в последнее время оказывает огромную поддержку, но большинство компаний все еще игнорирует ее.
Некоторые другие очевидные проблемы:
- Мы до сих пор не согласовали набор правил, касающихся поведения ИИ (что, очевидно, не означает, что ИИ будут им подчиняться).
- Объем человеческого мозга достигает примерно 2,5 петабайт (источник). Мы до сих пор не нашли способ хранить такой огромный объем данных и не разработали алгоритмы, способные получить доступ к такому объему данных в (почти) реальном времени.
- Мы до сих пор не усовершенствовали распознавание голоса и синтез речи.
- Мы до сих пор не нашли подходящего способа проверки интеллекта (как уже было сказано, тест Тьюринга не является идеальным способом проверки этого, но он остается самым популярным).
- Мы до сих пор не можем понять, что происходит в человеческом мозгу. Мы не можем воспроизвести то, чего до сих пор не до конца понимаем.
Так когда же компьютер пройдет тест Тьюринга?
Некоторые предполагают, что это произойдет где-то в районе 2029 года.
Другие считают, что это может произойти где-то ближе к 2040 году.
Большинство людей согласны с тем, что это произойдет еще при нашей жизни.
Конечно, все это прогнозы, основанные на текущем процессе развития технологий.
Закон Мура (удвоение мощности компьютера каждые год-два) до сих пор считается верным.
Однако есть явные признаки того, что этот закон умрет в следующем десятилетии (с этим согласен даже Гордон Мур, его первоначальный автор).
Ученые не согласны со скоростью роста технологических инноваций.
Некоторые люди думают, что этот рост является линейным, в то время как другие думают, что рост идет по экспоненциальному пути.
На изображении, прикрепленном ниже, вы можете видеть, что разница между линейным и экспоненциальным ростом огромна и становится больше с течением времени.
Теперь используйте два года как точку на оси X и мощность компьютера, который вы можете купить за 1000 долларов, как ось Y, и вы поймете разницу между этими двумя функциями.
Должны ли мы беспокоиться о том, что компьютер пройдет этот тест и убьет нас всех?
№
Это утверждение исходит из идеи, что люди не собираются продолжать улучшать себя.
Однако свидетельства говорят об обратном.
Мы уже удлиняем среднюю продолжительность жизни на сотни лет.
Тесты, проводимые в школах, со временем становятся все сложнее и сложнее.
Сегодняшние выпускники знают гораздо больше, чем выпускники столетней давности.
Показатели IQ растут.
Нет никаких признаков того, что эта тенденция прекратится.
Благодаря технологиям, которые станут доступными в ближайшем будущем, мы, вероятно, значительно улучшим наш интеллект.
В конце концов, как только нам удастся создать настоящий ИИ, мы, несомненно, вскоре после этого сможем улучшить свой собственный интеллект.
При этом маловероятно, что люди станут домашними животными для существ ИИ.
Скорее всего, мы будем совершенствовать человеческий интеллект наряду с искусственным интеллектом.
В конце концов, похоже, мы подойдем к моменту, когда реальный мир и виртуальный мир станут неотличимы друг от друга.
Стоит ли нам быть осторожными?
Определенно. Это может быть нашим величайшим изобретением, но также может быть и последним.
Вы не слишком предвзяты?
Конечно я. Каждый.
В конце концов, ИИ — это , по-прежнему , не более чем наше воображение, хотя мы приближаемся к его воплощению.
Я постоянно изучаю теории искусственного интеллекта и добавляю новую информацию на этот сайт.
Я изменю некоторые свои взгляды на эту тему, как только узнаю что-то новое.
Из-за этого не стоит рассматривать этот ресурс как окончательный ответ на этот вопрос.
Знаете что? Пошел вон! Я хочу создать СВОЕ мнение!
Добро пожаловать. Вот пара ссылок, которые помогут вам начать:
- Вычислительные машины и интеллект Алана М. Тьюринга, оригинальная статья, посвященная идее теста Тьюринга (версия в формате .pdf)
- Интерактивная Flash-презентация, объясняющая тест Тьюринга
- Ответ на объявление Рэя Курцвейла о прохождении чат-ботом Юджином Густманом теста Тьюринга
- Сингулярность рядом: когда люди превзойдут биологию, книга Рэя Курцвейла (также доступен документальный фильм)
Дополнительный балл по тесту Тьюринга?
Так в чем смысл этого сайта?
Этот веб-сайт предлагает простое объяснение на английском языке на извечный вопрос: был ли пройден тест Тьюринга?
Его цель — развенчать этот миф самым простым способом.
Кто владелец этого? Я хочу пожаловаться!
Разве это имеет значение?
Код этого сайта размещен на GitHub.
Если вы хотите пожаловаться, предложите какой-то новый источник или что-то еще, создайте вопрос там.
Если вы действительно хотите знать, меня зовут Александр Тодорович.
Я активен в Twitter и GitHub.
Я модератор сообщества на Opensource.com, и у меня был некоторый (незначительный) вклад в проекты с открытым исходным кодом, такие как Reddit, Tor Project и elementary OS.
Тест Тьюринга 2.0 – Physics World
Взято из майского номера Physics World за 2021 год. Члены Института физики могут ознакомиться с полным выпуском через Мир физики приложение.
Когда Алан Тьюринг разработал свой знаменитый тест, чтобы проверить, могут ли машины думать, компьютеры были медленными, примитивными объектами, которые заполняли целые комнаты. Хуанита Баваган узнает, как современные алгоритмы изменили наше понимание «теста Тьюринга» и его значения для искусственного интеллекта
В 1950 году британский математик Алан Тьюринг опубликовал в журнале статью «Вычислительные машины и интеллект» ( 59 433). В то время компьютеры были еще в зачаточном состоянии, но вопрос о том, могут ли машины мыслить, уже стоял перед нами. Между философами и учеными вспыхнули неоднократные столкновения, когда компьютеры превратили концепции, которые ранее были мысленными экспериментами, в реальность. По-видимому, осознавая, что эти дебаты могут продолжаться бесконечно, Тьюринг придумал новую проблему, чтобы переориентировать разговор и продвинуть то, что впоследствии станет областью искусственного интеллекта (ИИ).
В своей статье Тьюринг предложил «Имитацию игры» с участием человека, машины и следователя. Следователь остается в отдельной комнате и, задавая ряд вопросов, пытается выяснить, кто человек, а кто машина. Следователь не может видеть или слышать оппонентов и поэтому должен выносить вердикт только на основе их текстовых ответов. Таким образом, игра была разработана для проверки способности машины давать ответы, максимально приближенные к человеческим, и потенциально демонстрировать ее способность мыслить.
Но, подумал Тьюринг, может ли машина когда-нибудь выдать себя за человека? И если да, то как часто следователь будет угадывать правильно?
От мечты к реальности Математик Алан Тьюринг разработал в 1950 году то, что стало известно как «Тест Тьюринга», чтобы проверить, может ли машина выдать себя за человека, и как меру того, способна ли она как мысль. (Предоставлено: Alpha Historica/Alamy Stock Photo)
Более 70 лет спустя то, что стало известно как «Тест Тьюринга», продолжает очаровывать воображение ученых и общественности. Чувствительность и интеллект роботов фигурировали во многих научно-фантастических фильмах, от холода до расчетливости HAL 9.000 в 2001: Космическая одиссея Сэму, эмоционально искушенному компаньону ИИ в Ее . Памятные эпизоды Войта-Кампфа в фильме 1982 года « Бегущий по лезвию » очень напоминают тест Тьюринга. Тест также получил краткое упоминание в The Imitation Game , оскароносном биографическом фильме 2014 года о работе Тьюринга по взлому кодов во время войны.
Для многих ранних ученых-ИИ тест Тьюринга считался «золотым стандартом», потому что первоначальный прогресс в этой области был обусловлен машинами, которые хорошо отвечали на вопросы. Работа даже побудила ученого-компьютерщика немецкого происхождения Йозефа Вайценбаума разработать ELIZA, первого в мире «чат-бота», в 1966. Однако тест больше не является барометром успеха ИИ, как это было раньше. Поскольку сверхмощные машины ведут себя все более убедительно по-человечески — и даже превосходят нас во многих задачах, — мы должны переоценить значение теста Тьюринга.
Сегодня исследователи переписывают правила, берутся за новые задачи и даже разрабатывают «обратные» тесты Тьюринга, которые могут отличать людей от ботов. Кажется, чем ближе мы подходим к действительно разумным машинам, тем более размытыми становятся линии теста Тьюринга. Концептуальные вопросы, такие как значение интеллекта и человеческого поведения, снова находятся в центре внимания.
Спорная история
Непреходящая сила теста Тьюринга основана на простоте его выполнения и сложности того, что он может проверить. Тьюринг действительно рассматривал альтернативные тесты интеллекта, такие как математические задачи, такие игры, как шахматы или творчество, но обнаружил, что разговор может проверить все эти области. Он даже предложил несколько примеров в потенциальной серии вопросов и ответов (рис. 1).
«Язык очень важен для выражения мыслей», — объясняет Мария Лиаката, ученый-компьютерщик и профессор Лондонского университета королевы Марии, которая также является научным сотрудником Института Алана Тьюринга по искусственному интеллекту. «Поэтому действительно имеет смысл использовать способность генерировать естественное звучание и правильную речь как признак интеллекта. Действительно, многие тесты человеческого интеллекта, которые у нас есть, основаны на языковых задачах».
Однако у теста Тьюринга были свои критики, не в последнюю очередь сам Тьюринг. В своей первоначальной статье 1950 года он выдвигал различные возражения, одно из которых было «теологическим», а именно то, что мышление не может быть отделено от души, и, конечно же, машины не могут иметь души. Другим было возражение «головы в песке», которое предупреждало, что последствия машинного мышления будут слишком ужасными. Было также то, что Тьюринг назвал «возражением леди Лавлейс», названным в честь британского математика и программиста-первопроходца Ады Лавлейс (1815–1852). Она представляла себе мир, управляемый «программируемыми машинами», но предвидела ограничения устройств, которые могли действовать только так, как они были запрограммированы, и не генерировали оригинальных мыслей.
Проблема отделения мышления от акта мышления остается одним из самых серьезных критических замечаний в отношении теста Тьюринга
.
Проблема отделения мыслительного процесса от мыслительного акта остается одним из самых больших критических замечаний в отношении теста Тьюринга — действительно, со временем это стало более очевидным. Когда Гектор Левеск, ныне вышедший на пенсию профессор компьютерных наук из Университета Торонто, начинал свою деятельность в конце 1970-х годов, он вспоминает, что сосредоточился на «маленьких проблемах» в рассуждениях и представлениях (как знание может быть представлено в машине), а не на чем-то другом. «такой же огромный, как тест Тьюринга». «Мы все подумали: «Ну, если бы мы когда-нибудь смогли создать машину, которая могла бы пройти тест Тьюринга, мы, безусловно, выполнили бы нашу работу, а также целую кучу работы других людей».
1 Растущая достоверность искусственного интеллекта Наши ожидания от программ, заявляющих об искусственном интеллекте, менялись со временем. (Слева) Эти примеры вопросов и ответов об Имитационной игре были придуманы Аланом Тьюрингом в его статье 1950 года «Вычислительные машины и интеллект». (В центре) Настоящая стенограмма разговора с чат-ботом Юджином Густманом во время конкурса Turing Test 2012 года. (Справа) В 2020 году Guardian опубликовал целое эссе, написанное с использованием языкового генератора OpenAI GPT-3. (Предоставлено издательством IOP)
Однако с годами мнение Левеска об ИИ изменилось. Он видел большие успехи в области искусственного интеллекта, такие как машинное обучение, применяемое для освоения навыков настольных игр, таких как шахматы или го. Но основные вопросы репрезентации, рассуждений и того, как машины думают, остались. В 2014 году Левеск опубликовал резкую критику теста Тьюринга, утверждая в журнале Artificial Intelligence ( 212 27), что тест по своей сути поощряет обман как цель, что привело к исследованиям, в которых используются «дешевые уловки» и короткие пути для убеждения. поведение.
Проблема с такими показателями, как тест Тьюринга, настаивал Левеск, заключается не в том, что они будут разрабатывать обманчивые машины, а скорее в машинах, которые действуют, не задумываясь, и поэтому отвлекают внимание от исследований по развитию истинного интеллекта. И это не какое-то абстрактное беспокойство; алгоритмы уже формируют все, от результатов поиска и музыкальных рекомендаций до обработки заявлений на получение визы.
Возникновение чат-ботов
В 1950 году Тьюринг предсказал, что примерно через 50 лет компьютеры смогут играть в Имитацию настолько хорошо, что у среднего судьи будет только 70% шанс угадать правильно после пяти минут вопросов. Долгое время идея испытать настоящий компьютер была несбыточной мечтой. Но вот 8 ноября 19В 91 году американский изобретатель Хью Лёбнер провел первое соревнование по тесту Тьюринга в Компьютерном музее в Бостоне, чтобы найти наиболее похожую на человека компьютерную программу.
Претенденты на премию Лёбнера должны были представить программы, предназначенные для ответов на вопросы жюри, которое, как и предполагал Тьюринг, должно было решить, были ли ответы от реального человека или от чат-бота. Десять судей сидели перед компьютерными терминалами, где они читали тексты участников, четверо из которых были людьми, а остальные — компьютерными программами. Поскольку программы не были особенно продвинутыми, организаторы ограничили темы тусовочными беседами для неспециализированной аудитории.
В первые годы проведения ежегодного конкурса ботов было легко обнаружить. Они делали очевидные ошибки и несли чепуху, и долгое время казалось маловероятным, что кто-то сможет создать программу, достаточно продвинутую, чтобы пройти тест Тьюринга, воплощенный в премии Лёбнера. Но тогда в 2014 году чат-бот, выдававший себя за 13-летнего украинского мальчика, обманул контрольные 30% судей. Его звали Евгений Густман, его построили программисты Владимир Веселов, Евгений Демченко и Сергей Уласень, которые, похоже, знали, что судьи сочтут грамматические ошибки и незнание из-за возраста мальчика и его незнания английского языка.
Реальный тест Тьюринга Соревнования теперь проводятся ежегодно, и действующим чемпионом является «чат-бот» Мицуку. (С любезного разрешения: Pandorabots.com)
По мере совершенствования ботов правила проведения теста Тьюринга были ослаблены. Первоначально, как и в случае с гонкой 2014 года, тест обманывал часть судей, заставляя думать, что это был человек. Затем больший процент судей должен был быть обманут в течение более длительного периода времени, прежде чем организаторы в конечном итоге открыли его для голосования публики. В прошлом году из-за COVID-19 конкурса Тьюринга не проводилось.пандемия, но ясно, что бот снова прошел бы тест.
Действующим чемпионом является Mitsuku, который сначала выигрывал в 2013 году, а затем каждый год в период с 2016 по 2019 год, что делает его самым успешным чат-ботом Turing Test всех времен. Известный для краткости как Куки, он провел более 25 миллионов разговоров с людьми по всему миру. Разработанный британским программистом Стивом Уорсвиком, он основан на более чем 350 000 правил, которые он лично написал за последние 15 лет.
«Одна из раздражающих вещей, которые мне приходится делать каждый год, — это приукрашивать мою запись, чтобы она не выглядела слишком идеальной и не выдавала себя за компьютер», — говорит Уорсвик, дизайнер ИИ в Pandorabots. американская фирма, чей веб-сервис привел к разработке более 325 000 чат-ботов. Например, если кто-то спросит: «Какова численность населения Норвегии?» и Куки тут же ответил: «5 385 300», его легко обнаружить. Вместо этого Уорсвик, возможно, добавил бы паузу, несколько опечаток и ответ вроде «Я не знаю, но думаю, что меньше 10 миллионов».
Несмотря на успех Куки, Уорсвик говорит, что бот никоим образом не умен. Это может показаться резким, но он не хочет, чтобы люди вводились в заблуждение относительно Куки. Он часто получает электронные письма от людей, которые верят, что Куки настоящий. Понятно почему. Куки умный, забавный и представительный, влюблен в знаменитость (Джоуи из Friends ) и имеет любимый цвет (синий). В этом году разработчики даже вывели Куки за рамки текста и дали ей голос и дружелюбный синеволосый аватар.
«Это компьютерная программа, которая следует инструкциям и не имеет подлинного понимания того, о чем ее спрашивают», — говорит Уорсвик. «У него нет собственных целей, амбиций или мечтаний, и хотя кажется, что он может вести связный разговор, все это иллюзия».
Язык интеллекта
Современные технологии могут создавать язык, который звучит вполне естественно, но в значительной степени ограничен узкой темой, по которой он видел много обучающих данных. Легко представить себе чат-бота, дающего советы, скажем, о расписании рейсов или онлайн-покупках — на самом деле вы могли бы использовать его сами. Но разработка более сложной системы, такой как интеллектуальная машина, зависит от большого объема знаний, здравого смысла и умозаключений.
Традиционно машины делают выводы между парами предложений, но для поддержания широкого диалога им необходимо установить эти связи в каждом предложении, с человеком, с которым он говорит, и со своей собственной растущей базой знаний. Создание таких ссылок очень сложно, но машинное обучение позволяет ИИ обрабатывать огромные объемы данных и со временем учиться на них. Это привело ко многим прорывам, включая распознавание речи, распознавание голоса и генерацию языка.
Генеративный предварительно обученный преобразователь 3 (или GPT-3), разработанный в 2020 году, считается лучшим доступным языковым генератором. Действительно, языковая модель считалась настолько хорошей, что ее создатели из OpenAI — американской фирмы, разрабатывающей «безопасный» ИИ, — решили сначала не выпускать полную версию из-за возможного неправильного использования. Но даже с GPT-3 есть некоторые галочки, которые вы можете заметить, или некоторые предложения, которые могут показаться нелогичными. Люди часто говорят, что можно просто сказать, является ли что-то человеческим или разумным. Но что, если вы не смогли?
Слова и изображения Современные программы искусственного интеллекта настолько продвинуты, что одна из них, известная как DALL-E, может даже создавать изображения из текстовых описаний: здесь показаны лишь некоторые из картинок, которые она создала при запросе текста «кресло в форме авокадо». (Предоставлено: OpenAI)
Исследование Лиаката сосредоточено на обработке естественного языка (NLP) — области ИИ, изучающей, как программировать машины для обработки и генерации человеческого языка. Например, она использовала методы НЛП для изучения того, как слухи распространяются в Интернете. В одном исследовании 2016 года ( PLOS One 11 e0150989) Лиаката и его коллеги собрали, идентифицировали и аннотировали потоки слухов в Твиттере, связанные с девятью новостными событиями, для анализа поведения. Слухи, которые в конечном итоге оказываются правдой, как правило, разрешаются быстрее, чем ложные рассказы, в то время как неподтвержденные аккаунты производят отчетливый всплеск количества ретвитов в течение первых нескольких минут, что значительно больше, чем те, которые оказались правдивыми или ложными.
Некоторые из ее последующих исследований сосредоточены на моделях, которые могут автоматизировать обнаружение слухов в Интернете, чтобы помечать контент для людей, проверяющих факты (arXiv:2005.07174). Совсем недавно Лиаката запустил проект под названием «Панацея» для борьбы с дезинформацией путем объединения различных типов доказательств. Генерируемая людьми дезинформация — будь то об изменении климата, вакцинах или политике — уже сама по себе является проблемой, но проблема искусственно созданной информации заключается в объеме и скорости, с которой она может быть создана.
Защита от неправомерного использования контента, созданного ИИ, требует двойного подхода — не только повышения осведомленности для смягчения последствий «фейковых новостей», но и разработки систем для выявления потенциального поведения ботов и проверки фактов. Действительно, многие исследователи уже разрабатывают алгоритмы, которые могут распознавать ботов в социальных сетях или различать поддельные видео, создавая то, что некоторые называют обратным тестом Тьюринга. Они варьируются от CAPTCHA, где вам нужно щелкнуть соответствующие изображения, чтобы доказать веб-сайту, что вы человек, до более сложных алгоритмов, которые просматривают социальные сети в поисках бот-подобных шаблонов в сообщениях, языке и изображениях.
Развивающийся эталон
За прошедшие годы тест Тьюринга, по сути, превратился в сокращение для области ИИ, которая позволила сделать научные открытия — во всем, от астрофизики до медицины, — на достижение которых исследователям в одиночку ушли бы годы, если вообще когда-либо . Многие вехи ИИ были достигнуты на человеческом уровне или сверхчеловеческих достижениях, но кажется, что на каждый установленный рекорд приходится новый с еще меньшим уровнем ошибок и более высокой производительностью. Благодаря ИИ исследователи раздвигают границы на всех фронтах, от генерации речи и изображений до предсказания того, как складываются белки.
Однако тот факт, что ученые регулярно достигают этих показателей, не означает, что модели разумны, говорит Кристина Гарбасиа, докторант компьютерных наук в Мичиганском университете Анн-Арбор. «Мы не просто пытаемся получить лучший результат в одном тесте, мы на самом деле пытаемся проверить понимание этих моделей и их способность обобщать», — говорит она. Гарбасиа и ее коллеги недавно разработали «динамический тест» в НЛП, который со временем развивается и улучшается по мере появления новых наборов данных, метрик оценки и более совершенных моделей, что может быть важно и для областей применения ИИ (arXiv:2102.01672).
Хотя некоторые утверждают, что недавние достижения в области искусственного интеллекта делают тест Тьюринга устаревшим, он может быть более актуальным, чем когда-либо прежде. Многие ученые надеются, что тест Тьюринга поможет подтолкнуть исследования к решению серьезных вопросов в области ИИ, а не сосредоточиться на узких показателях, таких как один балл в сложной задаче понимания языка. Некоторые из ключевых открытых проблем в области ИИ заключаются в том, как разработать машины, которые могут обобщать, объяснимы, эффективны и могут работать в разных областях и средах.
Тест Тьюринга также претерпел изменения: исследователи, например, предложили изменить правила, чтобы ограничить объем памяти и мощности программы, проходящей тест. Точно так же, как человеческий интеллект ограничен памятью и возможностями вашего мозга, так и машинный интеллект должен быть ограничен машинами, которые думают, а не конкурируют грубой силой. «Объяснимость» также была бы важным компонентом современного теста Тьюринга, а это означало бы, что дизайн алгоритма должен был показать, как он пришел к ответу. Учитывая, что искусственный интеллект, и особенно глубокое обучение (тип машинного обучения, основанный на нейронных сетях, имитирующих человеческий мозг), подвергается критике как «черный ящик», поэтому машина-победитель должна быть прозрачной в отношении своего ответа.
Учись, играй, выигрывай Программа искусственного интеллекта MuZero, разработанная DeepMind, дочерней компанией Google, смогла освоить различные игры, несмотря на то, что ей не объяснили правила. (Любезно предоставлено: DeepMind)
Окончательная и завершающая премия Лебнера все еще находится на рассмотрении для машины, которая может пройти мультимодальный этап теста Тьюринга, который требует обработки музыки, речи, изображений и видео таким образом, чтобы судьи не могли их различить. это от человека. Способность к обобщению, пожалуй, самая сложная открытая проблема. Недавно лондонская фирма DeepMind научила свою программу искусственного интеллекта тому, как освоить шахматы, сёги и Atari без указания правил посредством программирования. Хотя некоторые мощные модели ИИ могут передавать знания, все еще есть пробелы — бот-мастер шахмат может научиться играть в другую игру, но все равно не сможет пройти базовый разговор по тесту Тьюринга.
Общий искусственный интеллект (AGI), возможно, является последним рубежом в области ИИ. То, как именно это определяется, зависит от того, с кем вы разговариваете, но в целом оно описывает ИИ, который интеллектуален в разных средах и предметных областях. Для некоторых это может повлечь за собой обобщенный алгоритм, означающий одну часть ИИ, которая может взять на себя любую задачу, как человек, и это то, о чем думает большинство людей, когда они представляют себе действительно интеллектуальные машины. Не все ученые в области искусственного интеллекта работают над созданием ОИИ, и многие не уверены, что это вообще возможно.
«Сначала я был скептиком, — говорит Гарбасиа. Но после того, как она стала свидетельницей некоторых достижений DeepMind и в области НЛП за последние несколько лет, ее мнение изменилось. «Я понял, что это возможно и что мы можем быть ближе, чем мы думаем».
Тест Тьюринга устарел. ИИ нужен новый тест
Тест Тьюринга устарел. ИИ нужен новый ориентир
Домашняя страница
Co.Design
Технология
Work Life
News
Impact
Podcasts
Video
Innovation Festival 360
Subscribe
Help Center
fastco works
AWS
Deloitte
Отдел
Elevate Prize
EY
- 0258 IBM
KLARNA
VISA
FASTCO Works
Awards Winding Team of Journalists, Designers и Videograph, которые рассказывают Brand Stories Listry Company.
коллекции
Быстрое правительство
Будущее инноваций и технологий в правительстве на благо
Самые инновационные компании
Ежегодный рейтинг компаний Fast Company, оказывающих огромное влияние
Самые творческие люди
Лидеры, творчески формирующие будущее бизнеса
Идеи, меняющие мир
Новые рабочие места, новые источники пищи, новая медицина — даже совершенно новая экономическая система
Дизайнерские инновации
Прославление лучших идей в бизнесе
Информационный бюллетень
События
Инновационный фестиваль
Курсы и обучение выпуске
Следуйте США:
С. теста Тьюринга в ответ на вопрос «Могут ли машины думать?» Цель теста состояла в том, чтобы определить, может ли машина демонстрировать разговорное поведение, неотличимое от человеческого.
Тьюринг предсказал, что к 2000 году средний человек будет иметь менее 70% шансов отличить ИИ от человека в игре-имитаторе, где от оценщика скрыто, кто отвечает — человек или ИИ.
Почему мы, как отрасль, не смогли достичь этой цели спустя 20 лет после этой отметки? Я считаю, что цель, поставленная Тьюрингом, бесполезна для ученых, занимающихся ИИ, таких как я. Тест Тьюринга чреват ограничениями, некоторые из которых сам Тьюринг обсуждал в своей основополагающей статье. Теперь, когда искусственный интеллект повсеместно интегрирован в наши телефоны, автомобили и дома, становится все более очевидным, что люди гораздо больше заботятся о том, чтобы их взаимодействие с машинами было полезным, беспрепятственным и прозрачным, и что концепция неотличимости машин от человека выходит из-под контроля. . Поэтому пришло время отказаться от знаний, которые служили источником вдохновения в течение семи десятилетий, и поставить новую задачу, которая в равной степени вдохновляет исследователей и практиков.
Тест Тьюринга и народное воображение
В последующие годы Тест Тьюринга стал путеводной звездой ИИ для академических кругов. Самые ранние чат-боты 60-х и 70-х годов, ELIZA и PARRY, были сосредоточены на прохождении теста. Еще в 2014 году чат-бот Юджин Густман заявил, что прошел тест Тьюринга, обманув 33% судей, заявив, что это человек. Однако, как указывали другие, планка обмана 30% судей является произвольной, и даже тогда победа некоторым казалась устаревшей.
Тем не менее, тест Тьюринга продолжает будоражить воображение людей. Языковая модель Generative Pre-trained Transformer 3 (GPT-3) OpenAI вызвала бурю эмоций, рассказывая о своей способности пройти тест Тьюринга. Точно так же меня до сих пор спрашивают журналисты, бизнес-лидеры и другие наблюдатели: «Когда Alexa пройдет тест Тьюринга?» Конечно, тест Тьюринга — это один из способов измерения интеллекта Alexa, но насколько последовательно и уместно измерять интеллект Alexa таким образом?
Чтобы ответить на этот вопрос, давайте вернемся к тому времени, когда Тьюринг впервые изложил свой тезис.
В 1950, первый коммерческий компьютер еще не был продан, фундамент для оптоволоконных кабелей не будет опубликован еще четыре года, а область искусственного интеллекта еще не была официально создана — это произойдет в 1956 году. Теперь у нас есть 100 000 вычислительная мощность наших телефонов в разы больше, чем у «Аполлона-11», а вместе с облачными вычислениями и высокоскоростным подключением ИИ теперь может принимать решения на основе огромных объемов данных за считанные секунды.
В то время как первоначальное видение Тьюринга продолжает вдохновлять, интерпретация его теста как высшей отметки прогресса ИИ ограничена эпохой, когда он был представлен. Во-первых, тест Тьюринга почти не учитывает машиноподобные атрибуты ИИ, такие как быстрые вычисления и поиск информации, функции, которые являются одними из самых эффективных в современном ИИ. Акцент на обмане людей означает, что для того, чтобы ИИ прошел тест Тьюринга, он должен делать паузы в ответах на такие вопросы, как «Знаете ли вы, что такое кубический корень из 3434756?» или «Как далеко Сиэтл от Бостона?» На самом деле ИИ мгновенно узнает эти ответы, и пауза, чтобы его ответы звучали более человечно, — не лучшее использование его навыков.
Более того, тест Тьюринга не учитывает растущую способность ИИ использовать датчики, чтобы слышать, видеть и чувствовать внешний мир. Вместо этого он ограничен просто текстом.
Чтобы сделать ИИ более полезным сегодня, эти системы должны эффективно выполнять наши повседневные задачи. Если вы просите своего помощника по искусственному интеллекту выключить свет в вашем гараже, вы не хотите вести диалог. Вместо этого вы хотели бы, чтобы он выполнил этот запрос и уведомил вас простым подтверждением «хорошо» или «готово». Даже когда вы вступаете в обширный диалог с помощником ИИ на актуальную тему или читаете историю своему ребенку, вы все равно хотели бы знать, что это ИИ, а не человек. На самом деле «обманывать» пользователей, притворяясь людьми, представляет реальный риск. Представьте себе антиутопические возможности, как мы уже начали видеть с ботами, распространяющими дезинформацию и появление дипфейков.
Новые значимые задачи для ИИ
Вместо того, чтобы зацикливаться на том, чтобы сделать ИИ неотличимыми от людей, наша цель должна заключаться в создании ИИ, которые расширяют человеческий интеллект и улучшают нашу повседневную жизнь таким образом, чтобы он был справедливым и инклюзивным.
Достойная основная цель состоит в том, чтобы ИИ демонстрировал человеческие атрибуты интеллекта, включая здравый смысл, самоконтроль и владение языком, и сочетал в себе машинную эффективность, такую как быстрый поиск, вызов памяти и выполнение задач от вашего имени. Конечным результатом является обучение и выполнение различных задач, а также адаптация к новым ситуациям, намного превосходящие возможности обычного человека.
Этот фокус информирует о текущих исследованиях в областях ИИ, которые действительно важны, — сенсорное понимание, общение, широкие и глубокие знания, эффективное обучение, обоснование принятия решений и устранение любых неуместных предубеждений или предубеждений (т. е. справедливости). Прогресс в этих областях можно измерять различными способами. Один из подходов состоит в том, чтобы разбить задачу на составные задачи. Например, Kaggle «Abstraction and Reasoning Challenge» фокусируется на решении логических задач, с которыми ИИ раньше не сталкивался. Другой подход заключается в разработке крупномасштабных реальных задач для взаимодействия человека с компьютером, таких как Alexa Prize Socialbot Grand Challenge — конкурс, посвященный разговорному ИИ для студентов университетов.
На самом деле, когда мы запускали Alexa Prize в 2016 году, у нас были острые дебаты о том, как следует оценивать конкурирующих «социальных ботов». Пытаемся ли мы убедить людей, что социальный бот — это человек, используя версию теста Тьюринга? Или мы пытаемся сделать ИИ достойным естественного общения, чтобы продвигать обучение, развлекать или просто приятно отвлекать?
Мы нашли рубрику, в которой социальным ботам предлагается связно и увлекательно общаться с людьми в течение 20 минут на широкий круг популярных тем, включая развлечения, спорт, политику и технологии. На этапах разработки, предшествующих финалу, клиенты оценивают ботов в зависимости от того, хотят ли они снова общаться с ботами. В финале независимые судьи-люди оценивают связность и естественность и присваивают баллы по 5-балльной шкале, и если какой-либо из социальных ботов общается в среднем в течение 20 минут и набирает 4,0 балла или выше, то он удовлетворит высшие требования. вызов. Хотя эта грандиозная задача еще не решена, эта методология направляет разработку ИИ, обладающего человеческими разговорными способностями, основанными на нейронных методах, основанных на глубоком обучении.
Он отдает приоритет методам, которые позволяют ИИ проявлять юмор и сочувствие, где это уместно, и все это без притворства человеком.
Широкое внедрение ИИ, такого как Alexa, в нашу повседневную жизнь — еще одна невероятная возможность измерить прогресс в области ИИ. Хотя эти сервисы ИИ зависят от разговорных навыков, подобных человеческим, для выполнения как простых транзакций (например, установка будильника), так и сложных задач (например, планирование выходных), чтобы максимизировать полезность, они выходят за рамки разговорного ИИ к «окружающему ИИ», где ИИ отвечает на ваши запросы, когда вам это нужно, предвосхищает ваши потребности и отходит на второй план, когда вы этого не делаете. Например, Alexa может обнаружить звук разбитого стекла и предупредить вас о необходимости принять меры. Если вы устанавливаете будильник перед сном, он предлагает выключить подключенный свет внизу, который был оставлен включенным. Другой аспект таких ИИ заключается в том, что они должны быть экспертами в большом, постоянно растущем числе задач, что возможно только при более общих способностях к обучению, а не интеллекте, специфичном для конкретной задачи.
Таким образом, в течение следующего десятилетия и далее полезность сервисов ИИ с их возможностями диалоговой и упреждающей помощи на окружающих устройствах будет достойным испытанием.
Ничто из этого не умаляет оригинального видения Тьюринга — «игра в имитацию» Тьюринга была задумана как мысленный эксперимент, а не как окончательная проверка пригодности ИИ. Однако сейчас самое время развеять тест Тьюринга и вдохновиться смелым видением Алана Тьюринга по ускорению прогресса в создании ИИ, предназначенных для помощи людям.
Рохит Прасад — вице-президент и главный научный сотрудник Alexa в Amazon.
Tech
Tech
С новыми пикселями Google справится в одиночку
Представлено ikea
Как три провидца представляют экологичное и более демократичное жилье
Tech
Электромобили становятся все больше, и это может направить США по опасному пути
точка в безопасности блокчейна
Новости
Количество установок BeReal по-прежнему растет, но ежедневное использование остается низким по сравнению с TikTok и Instagram
Новости
Лучшие способы отслеживания и сравнения сделок в Prime Day 2.