Тест Тьюринга пройден (на детском уровне сложности). Тест тьюринга вопросы


тест тьюринга

А́лан Мэ́тисон Тью́ринг (23 июня 1912 — 7 июня 1954) — английский математик, логик,криптограф, оказавший существенное влияние на развитие информатики. Кавалер Ордена Британской империи (1945), член Лондонского королевского общества (1951). Предложенная им в 1936 году абстрактная вычислительная «Машина Тьюринга», которую можно считать моделью компьютера общего назначения, позволила формализовать понятие алгоритма и до сих пор используется во множестве теоретических и практических исследований. Научные труды А. Тьюринга — общепризнанный вклад в основания информатики (и, в частности, — теории искусственного интеллекта).

Тест Тьюринга.

Тест Тьюринга — эмпирический тест, идея которого была предложена Аланом Тьюрингом в статье «Вычислительные машины и разум», опубликованной в 1950 году в философском журнале «Mind». Тьюринг задался целью определить, может ли машина мыслить, может ли машина обнаруживать разумное поведение, могут ли машины делать то, что можем делать мы (как мыслящие создания)?

Стандартная интерпретация этого теста звучит следующим образом: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор».

((Главной мыслью данной версии является то, что целью теста Тьюринга является ответ не на вопрос, может ли машина одурачить ведущего, а на вопрос, может ли машина имитировать человека или нет. Несмотря на то, что идут споры о том, подразумевался ли этот вариант Тьюрингом или нет, Стеррет считает, что этот вариант Тьюрингом подразумевался и, таким образом, совмещает второй вариант с третьим. В это же время группа оппонентов, включая Трейджера, так не считает. Но это все равно привело к тому, что можно назвать «стандартной интерпретацией». В этом варианте игрок А — компьютер, игрок В — человек любого пола. Задачей ведущего является теперь не определить кто из них мужчина и женщина, а кто из них компьютер, а кто — человек.))

Все участники теста не видят друг друга. Если судья не может сказать определенно, кто из собеседников является человеком, то считается, что машина прошла тест. Чтобы протестировать именно интеллект машины, а не её возможность распознавать устную речь, беседа ведется в режиме «только текст», например, с помощью клавиатуры и экрана (компьютера-посредника). Переписка должна производиться через контролируемые промежутки времени, чтобы судья не мог делать заключения, исходя из скорости ответов. Во времена Тьюринга компьютеры реагировали медленнее человека. Сейчас это правило тоже необходимо, потому что они реагируют гораздо быстрее, чем человек.

Китайская комната.

Кита́йская ко́мната — мысленный эксперимент, описанный Джоном Сёрлем, цель которого состоит в опровержении утверждения о том, что цифровая машина, наделённая «искусственным интеллектом» путём её программирования определённым образом, способна обладать сознанием в том же смысле, в котором им обладает человек. По сути, является критикой теста Тьюринга

Возьмём, например, какой-нибудь язык, которого вы не понимаете. Для меня таким языком является китайский. Текст, написанный по-китайски, я воспринимаю как набор бессмысленных каракулей. Теперь предположим, что меня поместили в комнату, в которой расставлены корзинки, полные китайских иероглифов. Предположим также, что мне дали учебник на английском языке, в котором приводятся правила сочетания символов китайского языка, причём правила эти можно применять, зная лишь форму символов, понимать значение символов совсем необязательно. Например, правила могут гласить: «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два».

Представим себе, что находящиеся за дверью комнаты люди, понимающие китайский язык, передают в комнату наборы символов и что в ответ я манипулирую символами согласно правилам и передаю обратно другие наборы символов. В данном случае книга правил есть не что иное, как «компьютерная программа». Люди, написавшие её, — «программисты», а я играю роль «компьютера». Корзинки, наполненные символами, — это «база данных»; наборы символов, передаваемых в комнату, это «вопросы», а наборы, выходящие из комнаты, это «ответы».

Предположим далее, что книга правил написана так, что мои «ответы» на «вопросы» не отличаются от ответов человека, свободно владеющего китайским языком. Например, люди, находящиеся снаружи, могут передать непонятные мне символы, означающие; «Какой цвет вам больше всего нравится?» В ответ, выполнив предписанные правилами манипуляции, я выдам символы мне также непонятные и означающие, что мой любимый цвет синий, но мне также очень нравится зелёный. Таким образом, я выдержу тест Тьюринга на понимание китайского языка. Но всё же на самом деле я не понимаю ни слова по-китайски. К тому же я никак не могу научиться этому языку в рассматриваемой системе, поскольку не существует никакого способа, с помощью которого я мог бы узнать смысл хотя бы одного символа. Подобно компьютеру, я манипулирую символами, но не могу придать им какого бы то ни было смысла. Этот пример соответствует системе быстрого обучения формальным знаниям для решения типовых задач, которая сегодня стала вытеснять в коммерческих школах аналитическую систему образования. Такие специалисты с программным мышлением способны быстро, не раздумывая, решать задачи из заученного набора, но абсолютно беспомощны в нестандартной ситуации. Аналитическое мышление, используя собственные знания, может путем сопоставления комбинаций символов и анализа порядка в передаваемых сообщениях для ответа, определить устойчивые сценарии их применения, а значит построить классификатор условных понятий и форм применения. Полученную формальную систему можно согласовать с собственной системой знаний, по принципу непротиворечивости перевода высказываний на обоих языках в общем пространстве мышления. В результате мы получим однозначное относительное представление о неизвестном языке, но конкретные характеристики объектов в этом языке останутся неопределенными. Внести определенность можно только калибровочными тестами сличения базовых элементов обеих систем для установления функции их отображения. К этому типу задач относится также установление контакта с разумом иной формы жизни, развившейся в принципиально других физических условиях.

Обратный тест Тьюринга и CAPTCHA

Модификация теста Тьюринга, в которой цель или одну или более ролей машины и человека поменяли местами, называется обратным тестом Тьюринга. Пример этого теста приведен в работе психоаналитика Уилфреда Биона, который был в особенности восхищен тем, как активизируется мыслительная активность при столкновении с другим разумом.

Развивая эту идею, Р. Д. Хиншелвуд (R. D. Hinshelwood) описал разум как «аппарат, распознающий разум», отметив, что это можно считать как бы «дополнением» к тесту Тьюринга. Теперь задачей компьютера будет определить с кем он беседовал: с человеком или же с другим компьютером. Именно на это дополнение к вопросу и пытался ответить Тьюринг, но, пожалуй, оно вводит достаточно высокий стандарт на то, чтобы определить, может ли машина «думать» так, как мы обычно относим это понятие к человеку.

CAPTCHA — это разновидность обратного теста Тьюринга. Перед тем как разрешить выполнение некоторого действия на сайте, пользователю выдается искаженное изображение с набором цифр и букв и предложение ввести этот набор в специальное поле. Цель этой операции — предотвратить атаки автоматических систем на сайт. Обоснованием подобной операции является то, что пока не существует программ достаточно мощных для того, чтобы распознать и точно воспроизвести текст с искаженного изображения (или они недоступны простым пользователям), поэтому считается, что система, которая смогла это сделать, с высокой вероятностью может считаться человеком. Выводом будет (хотя и не обязательно), что искусственный интеллект пока не создан.

studfiles.net

Проходим тест Тьюринга - A FREGIMO AMISSA

Про тест Тьюринга все слышали? Все, да? Вот сейчас мы и будем его проходить.

Тест наш будет всего из одного вопроса: как Тьюринг описывал свою идею теста, который потом получил это самое расхожее название?

Если вы ответили на этот вопрос, то вы прошли тест, и, значит, вы — бот, слава вам! А для людей — рассказываю. (Это, конечно, шутка. Никакого шовинизма: роботам тоже можно.)

Статья Тьюринга написана более 60 лет назад. Это было время появления вычислительной математики (ВМ). Сейчас, много лет спустя, мы так и не осознали до конца, что такое ВМ. Знаменитое утверждение Абельсона о том, что computer science (английское название ВМ, буквально «компьютерная наука») это не наука не о компьютерах, совершенно точно обозначает положение дел и сегодня. Компьютеры изменяют мир, а осознать толком мы их так и не можем. Но вернемся к статье Тьюринга. Ссылка на оригинал есть в конце этого сообщения.

В своей статье Тьюринг рассуждает над вопросом «может ли машина думать». Поскольку понятия «машина» и «думать» достаточно расплывчаты, он размышляет о том, как переформулировать задачу в иных терминах. По части «думания» он рассматривает игру в «имитацию», с игроками М и Ж, и ведущим В. В задает М и Ж вопросы, и должен определить, где М, а где Ж. М — мужчина, он заинтересован в том, чтобы В не угадал правильного ответа. Ж — женщина, которая заинтересована в том, чтобы В угадал правильный ответ. Таким образом, М делает вид, будто бы он Ж, он «имитатор», а Ж изображает себя, она как бы «на самом деле».

Тьюринг предлагает заменить вопрос «может ли машина думать» на другой: «будет ли В ошибаться одинаково часто, если заменить в этой игре мужчину М на „машину“». Этот вопрос отличается от изначального тем, что его уже можно проверить на практике.

Затем он переходит к понятию о машине. С одной стороны, кажется, что можно было бы позволить при создании машины любые инженерные решения. Однако, здесь возникает трудность, как обычно, связанная с разграничением человеков и машин. Например, может ли команда разнополых инженеров родить и воспитать ребенка? Будет ли этот ребенок засчитан подходящим кандидатом в «машины» для игры? Очевидно, что нет. А если это такие биоинженеры, которые вырастят человека из единственной клетки донора? Такой человек ведь тоже не годится на роль машины в игре — он ничем не отличается от любого другого человека. Следуя таким рассуждениям, Тьюринг ограничивает круг рассматриваемых машин только электронными цифровыми компьютерами.

Поскольку все цифровые компьютеры эквивалентны в смысле вычислений, которые они могут производить, то вопрос, который следует рассматривать, Тьюринг окончательно формулирует так: «Возможен ли такой воображаемый цифровой компьютер, успешно играющий роль М в игре в имитацию?»

Первоначальный вопрос «может ли машина думать» я полагаю недостаточно осмысленным, чтобы его обсуждать. Тем не менее, я полагаю, что к концу [XX] века смысл слов и общее понимание образованной публики изменится таким образом, что можно будет говорить о том, что машина думает, не вызывая возражений. Я полагаю также, что мне нет смысла скрывать это убеждение. Совершенно неверно популярное заблуждение, будто наука продвигается от одного достоверного факта к следущему достоверному факту, минуя предположения. Предположения не нанесут урона, коль скоро будет явно оговорено, что есть установленный факт, а что есть предположение. Предположения чрезвычайно важны, поскольку они задают направление научного поиска.Большая часть статьи посвящена рассмотрению возможных возражений точке зрения Тьюринга, именно, аргументов, утверждающих, что машина думать на может — имея в виду новую формулировку вопроса. Стоит и нам их вкратце рассмотреть.

1. Теологическое возражение. Мышление есть функция бессмертной души. Бог дал бессмертную душу только людям, но не животным и не машинам. Следовательно, ни животное, ни машина думать не может.

Теологическое же возражение Тьюринга состоит в том, что это утверждение противоречит утверждению о божественном всемогуществе, поскольку утверждается, что бог не в состоянии дать мыслящей души машине.

2. Возражение от страуса. Последствия того, что машины начнут мыслить, настолько ужасны, что нам следует надеяться и верить, что этого не произойдет.

Этот аргумент редко выражается в столь явной форме… Не думаю, что [он] требует опровержения. Здесь скорее пристало утешение; возможно, следует искать его в переселении душ.Ни первое, ни второе возражения, как видим, не вызывают у Тьюринга энтузиазма. Спор тут вряд ли возможен. К следующему он относится намного серьезнее.

3. Математическое возражение. Теорема Геделя говорит о том, что в любой достаточно мощной непротиворечивой формальной системе может быть сформулировано утверждение, которое не может быть ни доказано, ни опровергнуто в этой системе.

Кратким ответом на этот аргумент будет то, что, хотя предел возможностей данной конкретной машины и доказан,… не существует доказательства, что то же самое ограничение неприменимо и к человеческому интеллекту… Когда машина отвечает на критический вопрос, выдает ответ, но мы знаем, что ответ этот неверен, это дает нам определенное ощущение превосходства. Но не иллюзорно ли это ощущение?.. Мы сами слишком часто уверенно выдаем неверные ответы, чтобы принимать подобные свидетельства погрешности машин.4. Возражение от сознания. «Покуда машина не сочинит сонета или концерта от мыслей и эмоций, что она переживает, а не по случайному сложению символов, мы не примем того, что машина ровня мозгу, то есть, что не только пишет, но и знает, что пишет. Механизм не может чувствовать (а не просто искусственно о том сообщать) удовлетворения от успеха, печали от сгоревших ламп, услады от лести, печали от ошибок, очарования плотской любви, не может разозлиться или впасть в подавленность, когда не может получить, чего хочет» (проф. Джефферсон).Этот аргумент отрицает самое возможность нашей проверки. Крайняя форма подобного рассуждения такова, что единственный способ убедиться, что машина думает — это быть этой машиной… Можно описать собственные чувства, но, разумеется, [с этой точки зрения] неразумно обращать на [такое описание] внимание… Это, фактически, солипсистский взгляд на вещи… Думаю, что тем, кто поддерживает такой аргумент, следовало бы отказаться от него, нежели встать на такую солипсистскую позицию. Тогда они, вероятно, согласятся с возможностью нашей проверки… Разумеется, я не думаю, что в сознании нет загадки… Но я не полагаю, что эта загадка должна быть полностью разгадана для того, чтобы нам начать искать ответ на вопрос, рассматриваемый в этой статье.5. Возражения от разнообразных немощей. Машины могут делать все, что угодно, но только не X, где X может быть {быть добрым, прекрасным, дружелюбным; обладать инициативой, чувством юмора; отличать плохое от хорошего; ошибаться; влюбляться; наслаждаться клубникой со сливками; обучаться; красиво и правильно говорить; размышлять о себе; делать что-то новое, и так далее}.

Тьюринг подробно анализирует несколько немощей. Не буду здесь останавливаться на конкретных примерах: лучше все-таки прочитать всю статью. Вывод его таков:

Эти аргументы представляют собой вариации аргумента от сознания [пункт 4, выше] Чаще всего, спорящий согласен, что машина может делать все это, и описывает метод, которым она это делает, но считает это невпечатляющим. Полагают, что метод, каким бы он ни был — просто механическое подражание. См. скобки в цитате из Джефферсона [в пункте 4].6. Возражение от леди [Ады] Лавлейс. «Аналитическая машина не способна ничего зачинать. Она может делать только то, что мы умеем заставить ее делать» [курсив — ее].Вариант… [этого] возражения таков: «машина не способна сделать ничего нового». Здесь неплохо вспомнить, что «нет ничего нового под солнцем»… Лучшим вариантом возражения будет «машина никогда не сделает чего-то удивительного». Такое утверждение… может быть прямо оспорено. Машины удивляют меня поразительно часто. Происходит это, скорее, оттого, что я не проделываю достаточно вычислений, а, если и делаю их, то второпях, неряшливо, рискованно… Естественно, я часто ошибаюсь, и результат удивляет меня, когда эксперимент уже проделан, а предположения мои давно забылись. Эти признания хоть и дают повод отчитать меня за мою порочную практику, но, тем не менее, не бросают ни тени сомнения в моей честности, когда я свидетельствую, что испытываю самое настоящее удивление… Не ожидаю, конечно, что этот ответ убедит моего критика: здесь он возразит, что удивление — творческий акт с моей стороны, а не со стороны машины. Это возвращает нас к аргументу от сознания [п. 4]. Стоит, однако, заметить, что восприятие чего-либо удивительным есть также творческий акт, будь удивление вызвано человеком, книгой или чем угодно еще.7. Возражение от аналоговой нервной системы: нервная система — не цифровой компьютер.

Рассуждение здесь интересно, но оно скорее дополнительное к главному аргументу Тьюринга: пусть нервная система и отличается от цифрового компьютера, но В не может воспользоваться отличиями практически.

8. Возражение от неформальности поведения: невозможно составить список правил, описывающих, как поведет себя человек в любой вообразимой ситуации.

Мы не можем убедиться в том, что подобных правил не существует. Единственный способ их поиска — научное наблюдение, но мы не можем представить себе случая, когда мы могли бы сказать: «Мы искали достаточно. Этих законов не существует».

Предположим, что мы обязательно должны были бы найти такие законы. Тогда некая цифровая машина должна была бы их найти, по наблюдении в течение некоего разумного времени, например, не более тысячи лет [вычислений]. Но это, похоже, не так. Я написал небольшую программу для Манчестерской машины, занимающую не более 1000 ячеек памяти, которая в ответ на шестнадцатизначное число выдает другое шестнадцатизначное число, затратив на вычисления не более двух секунд. Уверен, что никто не сможет найти из этих ответов, какова эта программа, чтобы предсказать ее ответы на любые исходные запросы.

9. Возражение от экстрасенсорного восприятия. Этот раздел представляет только исторический интерес. Тьюринг рассматривает экстрасенсорное восприятие как научную гипотезу, и рассуждает, как исключить его влияние в эксперименте, предполагая, что человек им наделен, а машина — нет.

Заключительная часть статьи посвящена рассуждению об обучении людей и машин. Не буду здесь ее касаться, но она интересна, и ее тоже стоит прочитать.

Тьюринг, безусловно, прав, говоря, что значения слов меняются со временем. В области машинного интеллекта это особенно заметно. Игра в шахматы безусловно считалась областью, недостижимой для машины — и машина победила чемпиона мира по шахматам. Но, думаем мы, это не интеллект. Машина не думает. Восприятие образов, зрение было человеческой прерогативой — а теперь системы машинного зрения используются на линиях упаковки шоколадок. Но это тоже не интеллект: машина ведь не понимает, на что она смотрит. Машина не знает, как это вкусно — шоколадка, ей даже никогда не хочется ее попробовать. Значит, это тоже не интеллект. Системы, которые находят математические доказательства — тоже более не считаются интеллектуальными. Системы, которые просматривают все пакеты на входе в компьютерную сеть и «опускают шлагбаум», когда замечают подозрительные запросы, попытки «взломать» сеть — и они не интеллектуальны. Они не понимают, что такое сеть и что значит ее «взломать». Диспетчерская система, управляющая всеми линиями в Парижском метро тоже начисто лишена интеллекта. Она просто решает необозримую человеком задачу и быстро принимает часто непостижимые решения. Но что она знает о Париже?

Тут бы нам и остановиться, а то ведь так себя можно и совсем без интеллекта оставить. А может, так было бы и к лучшему. Зачем нам такое слово, которым непонятно даже, что называется?__________________________________________

Turing, A.M. (1950). Computing machinery and intelligence. Mind, 59, 433-460

Если кто-то знает хороший перевод статьи Тьюринга — дайте, пожалуйста, ссылку.

fregimus.livejournal.com

Тест Тьюринга пройден (на детском уровне сложности) / Хабр

Сделала это программа, которая убедила людей, что является 13-летним мальчиком из украинской Одессы.

Согласно условиям теста Тьюринга, он считается пройденным, если программе удастся убедить в своей человечности хотя бы 30% судей в процессе 5-минутного текстового общения. Программе, разработанной Владимиром Веселовым из России и украинцем Евгением Демченко удалось вчера убедить 33% судей в том, что она на самом деле — 13-летний одессит Евгений Густман, любитель конфет и гамбургеров и сын врача-гинеколога.

Профессор Кевин Уорвик из Университета Ковентри заметил, что «некоторые будут утверждать, что тест уже был ранее пройден, т.к. тестом Тьюринга называлось множество аналогичных соревнований по всему миру, но Turing Test 2014 в Лондоне наиболее объективный и независимый из них, к тому же тематика вопросов была ничем не ограничена», — пишет The Verge.

Организованный Университетом Рединга тест состоялся вчера, в субботу, на базе Королевского общества в Лондоне.

В свою очередь, Владимир Веселов сообщил, что возраст их виртуального персонажа укрепил его легенду, т.к. в таком возрасте вполне естественно не знать каких-то вещей. Так что взрослым компьютер пока прикинуться не может, но человеком — вполне.

Комментарий хабраскептика:

Проект интересный, подход забавный*, но то, что прошло там в университете это лишь одна из вариаций тьюринг-теста, которая была пройдена. Профессор Уорвик посчитал, что пройденный тест был самым лучшим, ну ок. С ним можно не согласится. Очень удивило его заявление. Он сам знает, что во всех современных испытаниях нет установленных тем. И на деле 33% означает, что было только три судьи, и лишь один был обманут. В случае премии Лёбнера, к примеру 2013, судей четыре, и это профессионалы по теме. В случае теста, из того что видно по пресс-релизу, среди судей были «actor Robert Llewellyn» и «Lord Sharkey», которые к робототехнике имеют косвенные отношения, хоть первый и играл робота, а второй имел отношение к Тьюрингу. С таким подходом визуальный тьюринг-тест андроидных роботов можно было проводить с Шварценеггером и Саммер Глоу в роли судей, а не с профессором Хироси Исиугро или Дэвидом Хэнсоном. Более того, пока нет никаких опубликованных результатов, кроме пресс-релиза (в отличии от полной подноготной в случае Лёбнеровских тестов), а все кричат про то как тест пройден, как будто раньше их не было. (*Подход забавный, но его, как уже отметили в комментариях, можно посчитать жульничеством, сделанным специально под тьюринг-тестирования.)И ответ:Замечания логичны, но прежде чем делать предположения о качестве теста можно было бы перейти по ссылке в посте и прочитать о нем. Что можно было узнать: — 30 судей — всего 300 5-минутных переписок — каждые 5 минут судья общался одновременно с машиной и с человеком — тест проводился при независимой экспертизе товарища Professor John Barnden, University of Birmingham, formerly head of British AI Society

habr.com

Тест Тьюринга

Тест Тьюринга - эмпирический эксперимент, в ходе которого человек общается с компьютерной интеллектуальной программой, которая моделирует ответы как человек.

Предполагается, что тест Тьюринг пройден, если человек при общении с машиной считает, что общается с человеком, а не машиной.

Британский математик Алан Тьюринг в 1950 г. придумал такой эксперимент по аналогии с имитационной игрой, которая предполагает, что 2 человека уходят в разные комнаты, а 3й человек должен понять кто где, общаясь с ними письменно.

Тьюринг предложил такую игру провести с машиной и, если машина сможет ввести в заблуждение эксперта, это будет означать, что машина может думать. Таким образом, классический тест проходит по следующему сценарию:

Человек-эксперт общается через чат с чат-ботом и другими людьми. По окончании общения эксперт должен понять, кто из собеседников был человеком, а кто — ботом.

В наше время тест Тьюринга получил много разных модификаций, рассмотрим некоторые из них:

Обратный тест Тьюринга

Тест заключается в выполнении каких- либо действий для подтверждения, что ты человек. Н-р, мы можем часто сталкиваться с потребностью ввести цифры и буквы в специальное поле с искаженного изображения с набором цифр и букв. Данные действия защищают сайт от ботов. Прохождение данного теста подтверждало бы способность машины воспринимать сложные искаженные изображения, но пока таких не существует.

Тест бессмертия

Тест заключается в максимальном повторении личностных характеристик человека. Считается, что если характер человека максимально качественно скопирован, и его невозможно отличить от источника, то означает, что пройден тест бессмертия.

Минимальный интеллектуальный Signal-тест

Теста предполагает упрощенную форму ответов на вопросы — только да и нет.

Мета-тест Тьюринга

Тест предполагает, что машина «умеет мыслить», если она может создать что-то, что она сама хочет проверить на разумность.

Первое прохождение классического теста Тьюринга зафиксировано 6 июня 2014 года чат-ботом «Женя Густман», разработанным в Санкт-Петербурге. Бот убедил экспертов, что они общаются с 13-летним подростка из Одессы.

В общем, машины уже способны на многое, сейчас много специалистов работают в данном направлении и нас ждут все более интересные вариации и прохождения данного теста.

"Eugene Goostman" удалось пройти тест Тьюринга и убедить 33% судей в том, что с ними общается не машина. Программа выдавала себя за триннадцатилетнего мальчика по имени Евгений Густман из Одессы и смогла убедить беседовавших с ней людей в том, что выдаваемые ею ответы принадлежат человеку.

Тест проходил в Лондонском королевском обществе, его проведение организовал Университет Рединга, Великобритания. Авторами программы являются российский инженер Владимир Веселов, проживающий в настоящее время в США, и украинец Евгений Демченко, который живёт сейчас в России.

Как программа "Евгений Густман" прошла тест Тьюринга?

В субботу 7 июня 2014 года суперкомпьютер по имени Eugene попытался воссоздать интеллект тринадцатилетнего подростка — Евгения Густмана.

В тестировании, организованном Школой системной инженерии при Университете Рединга (Великобритания), участвовали пять суперкомпьютеров. Испытание представляло собой серию пятиминутных письменных диалогов.

Разработчикам программы удалось подготовить бота ко всем возможным вопросам и даже обучить его собирать примеры диалогов через Twitter. Кроме того, инженеры наделили героя ярким характером. Притворяясь 13-летним мальчиком, виртуальный «Евгений Густман» не вызывал сомнений у экспертов. Они поверили в то, что мальчик может не знать ответы на многие вопросы, ведь уровень знаний у среднего ребёнка существенно ниже, чем у взрослых. При этом его правильные и точные ответы списывали на необычную эрудицию и начитанность.

В тесте участвовали 25 «скрытых» людей и 5 чат-ботов. Каждый из 30-ти судей провёл по пять чат-сессий, пытаясь определить реальную природу собеседника. Для сравнения, в традиционном ежегодном конкурсе программ искусственного интеллекта на премию Лёбнера* участвует всего 4 программы и 4 скрытых человека.

Впервые программа с «юным одесситом» появилась ещё в 2001 году. Однако лишь в 2012 году она показала действительно серьёзный результат, убедив 29 % судей.

Данный факт доказывает, что в скором будущем, появятся програмы, которые будут способны без проблем пройти тест Тьюринга.

тест Тьюринга

neuronus.com

Тест Тьюринга / Хабр

Итак сегодня мы поговорим о самом известном тесте для оценки говорящего бота — это тест Тьюринга. Тест Тьюринга — эмпирический тест, идея которого была предложена Аланом Тьюрингом в статье «Вычислительные машины и разум» (англ. Computing Machinery and Intelligence), опубликованной в 1950 году в философском журнале «Mind». Тьюринг задался целью определить, может ли машина мыслить. Стандартное звучание закона: «Если компьютер может работать так, что человек не в состоянии определить, с кем он общается — с другим человеком или с машиной, — считается, что он прошел тест Тьюринга» Разумные, подобные человеку машины на протяжении многих десятилетий были одной из основных тем научно-фантастических произведений. С момента зарождения современной вычислительной техники умы людей занимал вопрос: можно ли построить машину, которая могла бы в чем-то заменить человека. Попыткой создать твердую эмпирическую почву для решения этого вопроса и стал тест, разработанный Аланом Тьюрингом. Первый вариант теста, опубликованный в 1950 году, был несколько запутанным. Современная версия теста Тьюринга представляет собой следующее задание. Группа экспертов общается с неизвестным существом. Они не видят своего собеседника и могут общаться с ним только через какую-то изолирующую систему — например, клавиатуру. Им разрешается задавать собеседнику любые вопросы, вести разговор на любые темы. Если в конце эксперимента они не смогут сказать, общались ли они с человеком или с машиной, и если на самом деле они разговаривали с машиной, можно считать, что эта машина прошла тест Тьюринга. Существуют, по крайней мере, три основных варианта теста Тьюринга, два из которых были предложны в статье «Вычислительные машины и разум», а третий вариант, по терминологии Саула Трейджера (Saul Traiger), является стандартной интерпретацией.

Наряду с тем, что существует определенная дискуссия, соответствует ли современная интерпретация тому, что описывал Тьюринг, либо она является результатом неверного толкования его работ, все три версии не считаются равносильными, их сильные и слабые стороны различаются. Имитационная игра

Тьюринг, как мы уже знаем, описал простую игру для вечеринок, которая включает в себя минимум трех игроков. Игрок А — мужчина, игрок В — женщина и игрок С, который играет в качестве ведущего беседу, любого пола. По правилам игры С не видит ни А, ни В и может общаться с ними только посредством письменных сообщений. Задавая вопросы игрокам А и В, С пытается определить, кто из них — мужчина, а кто — женщина. Задачей игрока А является запутать игрока С, чтобы он сделал неправильный вывод. В то же время задачей игрока В является помочь игроку С вынести верное суждение.

В той версии, которую С. Г. Стеррет (S. G. Sterret) называет «Первоначальный тест на основе имитационной игры» (Original Imitation Game Test), Тьюринг предлагает, чтобы роль игрока А исполнял компьютер. Таким образом, задачей компьютера является притвориться женщиной, чтобы сбить с толку игрока С. Успешность выполнения подобной задачи оценивается на основе сравнения исходов игры, когда игрок А — компьютер, и исходов, когда игрок А — мужчина. Если, по словам Тьюринга, «ведущий беседу игрок после проведения игры [с участием компьютера] выносит неверное решение так же часто, как и после проведения игры с участием мужчины и женщины», то можно говорить о том, что компьютер разумен.

Второй вариант предложен Тьюрингом в той же статье. Как и в «Первоначальном тесте», роль игрока А исполняет компьютер. Различие заключается в том, что роль игрока В может исполнять как мужчина, так и женщина.

«Давайте рассмотрим конкретный компьютер. Верно ли то, что модифицируя этот компьютер с целью иметь достаточно места для хранения данных, увеличивая скорость его работы и задавая ему подходящую программу, можно сконструировать такой компьютер, чтобы он удовлетворительно выполнял роль игрока А в имитационной игре, в то время как роль игрока В выполняет мужчина?», — Тьюринг, 1950, стр. 442.

В этом варианте оба игрока А и В пытаются склонить ведущего к неверному решению.

Главной мыслью данной версии является то, что целью теста Тьюринга является ответ не на вопрос, может ли машина одурачить ведущего, а на вопрос, может ли машина имитировать человека или нет. Несмотря на то, что идут споры о том, подразумевался ли этот вариант Тьюрингом или нет, Стеррет считает, что этот вариант Тьюрингом подразумевался и, таким образом, совмещает второй вариант с третьим. В это же время группа оппонентов, включая Трейджера, так не считает. Но это все равно привело к тому, что можно назвать «стандартной интерпретацией». В этом варианте игрок А — компьютер, игрок В — человек любого пола. Задачей ведущего является теперь не определить кто из них мужчина и женщина, а кто из них компьютер, а кто — человек.

Тьюринг в 2012

Для организации мероприятий по празднованию в 2012 году столетия со дня рождения Тьюринга создан специальный комитет, задачей которого является донести мысль Тьюринга о разумной машине, отраженную в таких голливудских фильмах, как «Бегущий по лезвию», до широкой публики, включая детей. В работе комитета участвуют: Кевин Ворвик, председатель, Хьюма Ша, координатор, Ян Бланд (Ian Bland), Крис Чапмэн (Chris Chapman), Марк Аллен (Marc Allen), Рори Данлоуп (Rory Dunlop), победители конкурса на получение премии Лёбнера Робби Гарне и Фред Робертс (Fred Roberts). Комитет работает при поддержке организации «Женщины в технике» (Women in Technology) и Daden Ltd.

habr.com

почему тест Тьюринга устарел — Look At Me

ELIZA

Восстание машин откладывается: почему тест Тьюринга устарел. Изображение № 8.

В 1966 году Джозеф Уайзенбаум разработал программу ELIZA, принцип которой заключался в анализе введённых пользователем комментариев на ключевые слова. Если такие слова были найдены, программа применяла правило, по которому этот комментарий преобразовывался и возвращался пользователю. Если ключевых слов введено не было, ELIZA возвращала пользователю общий ответ-заглушку либо повторяла один из предыдущих комментариев. Программа также имитировала поведение психотерапевта, работающего по клиент-центрированной методике. Таким образом, она «притворялась, что не знает почти ничего о реальном мире». Благодаря этим способам, программа Уайзенбаума могла вводить в заблуждение людей, заставляя их полагать, что разговаривают они с человеком. ELIZA, возможно, может считаться первой программой, которая смогла пройти тест Тьюринга, но результаты не являются достаточно убедительными. Для 60-х это было такой диковинкой, что люди не могли даже предположить, что они говорят с программой.

PARRY

Восстание машин откладывается: почему тест Тьюринга устарел. Изображение № 9.

В 1972 году Кеннет Колби доработал «Элизу» таким образом, что программа пыталась моделировать поведение параноидального шизофреника. Его программу PARRY с помощью одной из модификаций теста Тьюринга проверяли на команде опытных психиатров, анализировавших группу из настоящих пациентов и компьютеров. Команда из 33 психиатров изучила стенограмму бесед и лишь в 48 % случаев смогла вынести верное решение. Но этот тест также не может считаться на 100 % достоверным, потому как для вынесения корректного решения судей требуется, чтобы вопросы можно было задавать в интерактивном режиме.

Лауреаты премии Лёбнера

С 1991 года Кембриджский центр исследований поведения в Массачусетсе проводит ежегодный конкурс на получение премии Лёбнера. И хотя серебряная (за лучшего аудио-чат-бота) и золотая (за лучшего аудио- и зрительного чат-бота) медали ещё ни разу не вручались, на конкурсе ежегодно присуждается бронзовая медаль. Её удостаиваются программы, демонстрирующие «наиболее человеческое» поведение в разговоре. Самыми известными призёрами являются чат-бот A.L.I.C.E. (три награды — в 2000, 2001 и 2004 годах), программа Jabberwacky (две награды — в 2005 и 2006 годах), Elbot (награда 2008 года) — он даже не притворялся человеком, но обманул трёх судей.

 Deep Blue

Суперкомпьютер Deep Blue компании IBM, способный оценить 200 миллионов позиций в секунду, 11 мая 1997 года выиграл матч из 6 партий у чемпиона мира по шахматам Гарри Каспарова. После матча гроссмейстер высказал претензии корпорации IBM, обвиняя её в создании нездоровой напряжённости вокруг матча, неравных условиях и нечестной игре.

Watson

Другой суперкомпьютер IBM — Watson — победил в американской телевикторине Jeopardy! (аналог российского проекта «Своя игра»). Машина выиграла у двух бывших чемпионов игры Кена Дженнингса и Бреда Руттера. По итогам Watson получил 1 миллион долларов, в то время как Дженнингс и Раттер получили 300 и 200 тысяч долларов соответственно. Watson состоит из 90 серверов, использующих для работы 360 процессоров. Он «понимает» речь, а чтобы эмулировать процесс мышления, в компьютер были загружены миллионы документов, включая словари, антологии и энциклопедии.

Симулятор «человечности» DI-Guy 

Восстание машин откладывается: почему тест Тьюринга устарел. Изображение № 11.

Компания Boston Dynamic, известная своими впечатляющими роботами, разработала программный продукт DI-Guy, который моделирует персональную и групповую деятельность человека. Система отвечает за сценарное и ситуационное взаимодействие и коммуникацию в ходе военных операций, аналитику поведения людей для оценки потенциальной опасности и многое другое.

Бот по продаже медицинских страховок

В декабре 2013 года в СМИ всплыл курьёзный случай, когда в вашингтонский офис журнала Time позвонила девушка, представилась Самантой Уэст и предложила купить медицинскую страховку. С ней лично говорил глава издания Майкл Ширер, который через некоторое время заподозрил что-то странное. На прямой вопрос, робот ли она, девушка со смехом ответила, что она вполне реальный человек. Майкл попросил её назвать овощ, который входит в состав томатного супа. На этот вопрос девушка ответить не смогла: сказала, что не понимает вопроса. Просьба назвать вчерашний день недели тоже остался без ответа — в этот раз Саманта сослалась на плохую связь. Позже репортёры Time перезвонили по оставленному номеру и выяснили, что имеют дело с голосовой программой, общающейся по сценарию. Попробовать пообщаться с роботом можно, позвонив в Вашингтон по номеру (484) 589-5611.

Cleverbot

Восстание машин откладывается: почему тест Тьюринга устарел. Изображение № 12.

Чат-бот Cleverbot впечатлил многих во время фестиваля Techniche в Индии, где он фактически прошёл тест Тьюринга. В ходе эксперимента всего было подано 1 334 голоса добровольцев, а результаты транслировались на большом экране. В итоге выяснилось, что людей считали людьми 63 % испытуемых, а бота человеком — 59 %. Все дело в том, что Cleverbot, имеющий 45 млн строк записанных чатов, постоянно тренируется на людях онлайн, пополняя свою базу ответов, и этот индекс удваивается ежегодно.

www.lookatme.ru

Кто придумал тест Тьюринга? Вопросы теста Тьюринга

Наверное, сегодня не такого человека, который хотя бы раз не слышал о таком понятии, как тест Алана Тьюринга. Вероятно, большинство, в общем, далеко от понимания, что собой представляет такая система тестирования. Потому остановимся на ней несколько подробнее.

Что такое тест Тьюринга: основная концепция

Еще в конце 40-х годов прошлого столетия очень многие ученые умы занимались проблемами первых компьютерных разработок. Именно тогда один из членов некой негосударственной группы Ratio Club, занимавшейся исследованиями в области кибернетики, задался совершенно логичным вопросом: можно ли создать машину, которая бы думала, как человек, или, по крайней мере, имитировала его поведение?

тест тьюринга

Нужно ли говорить, кто придумал тест Тьюринга? По всей видимости, нет. За первоначальную основу всей концепции, которая и сейчас актуальна, был взят следующий принцип: сможет ли человек в течение некоторого времени общения с неким невидимым собеседником на совершенно разные произвольные темы определить, кто перед ним – реальный человек или машина? Иными словами, вопрос заключается не только в том, чтобы сымитировать машиной поведение реального человека, но и выяснить, может ли она думать самостоятельно. Без сомнения, до сих пор этот вопрос остается спорным.

История создания

Вообще, если рассматривать тест Тьюринга как некую эмпирическую систему определения «человеческих» возможностей компьютера, стоит сказать, что косвенной основой для его создания послужили любопытные высказывания философа Альфреда Айера, которые он сформулировал еще в 1936 году.

кто придумал тест тьюринга

Сам Айер сравнивал, так сказать, жизненный опыт разных людей, и на основе этого выразил мнение, что бездушная машина не сможет пройти ни один тест, поскольку мыслить не умеет. В лучшем случае это будет чистой воды имитация.

В принципе, так оно и есть. Для создания мыслящей машины одной имитации мало. Очень многие ученые в качестве примера приводят братьев Райт, которые построили первый самолет, отказавшись от тенденции имитировать птиц, которая, кстати сказать, была свойственна еще такому гению, как Леонардо да Винчи.

тест алана тьюринга

Истрия умалчивает, знал ли сам Алан Тьюринг (1912-1954) об этих постулатах, тем не менее в 1950 году он составил целую систему вопросов, которая могла бы определить степень «очеловеченности» машины. И надо сказать, эта разработка и сейчас является одной из основополагающих, правда, уже при тестировании, например, компьютерных ботов и т. д. В реальности же принцип оказался таковы, что пройти тест Тьюринга удалось лишь нескольким программам. И то, «пройти» - сказано с большой натяжкой, поскольку результат тестирования никогда не имел показателя 100 процентов, в лучшем случае – чуть более 50.

В самом же начале своих исследований ученый использовал собственное изобретение. Оно получило название «тест-машина Тьюринга». Поскольку все беседы предполагалось ввести исключительно в печатном виде, ученый задал несколько основных директив по написанию ответов, таких как перемещение печатной ленты влево или вправо, печать определенного символа и т. д.

Программы ELIZA и PARRY

Со временем программы стали усложняться, а две из них в ситуациях, когда применялся тест Тьюринга, показали ошеломляющие на то время результаты. Таковыми стали ELIZA и PARRY.

Что касается «Элизы», созданной в 1960 году: исходя из вопроса, машина должна была определить ключевое слово и на его основе составить обратный ответ. Именно это позволяло обманывать реальных людей. Если такого слова не оказывалось, машина возвращала обобщенный ответ или повторяла один из предыдущих. Однако прохождение теста «Элизой» до сих пор остается под сомнением, поскольку реальных людей, которые общались с программой, изначально подготавливали психологически таким образом, чтобы они заранее думали, что разговаривают с человеком, а не с машиной.

Программа PARRY несколько похожа на «Элизу», но была создана для имитации общения параноика. Что самое интересное, для ее тестирования были использованы настоящие пациенты клиник. После записи стенограмм бесед в режиме телетайпа их оценивали профессиональные психиатры. Лишь в 48 процентах случаев они смогли правильно оценить, где человек, а где машина.

Кроме того, практически все тогдашние программы работали с учетом определенного промежутка времени, поскольку человек в те времена соображал намного быстрее машины. Сейчас – наоборот.

Суперкомпьютеры Deep Blue и Watson

Достаточно интересными выглядели разработки корпорации IBM, которые не то чтобы мыслили, но обладали невероятной вычислительной мощностью.

тест машина тьюринга

Наверное, многие помнят, как в 1997 году суперкомпьютер Deep Blue выиграл 6 партий в шахматы у тогдашнего действующего чемпиона мира Гарри Каспарова. Собственно, тест Тьюринга применим к этой машине весьма условно. Все дело в том, что в нее изначально было заложено множество шаблонов партий с невероятным количеством интерпретации развития событий. Машина могла оценивать порядка 200 миллионов позиций фигур на доске в секунду!

вопросы теста тьюринга

Компьютер Watson, состоявший из 360 процессоров и 90 серверов, выиграл американскую телевикторину, обойдя по всем параметрам двух других участников, за что, собственно, и получил 1 миллион долларов премии. Опять же, вопрос спорный, поскольку в машину были заложены невероятные объемы энциклопедических данных, а машина просто анализировала вопрос на предмет наличия ключевого слова, синонимов или обобщенных совпадений, после чего давала правильный ответ.

Эмулятор Eugene Goostman

Одним из самых интересных событий в этой области стала программа одессита Евгения Густмана и российского инженера Владимира Веселова, ныне проживающего в США, которая имитировала личность 13-летнего мальчика.

тест тьюринга

7 июня 2014 года программа Eugene показала свои возможности в полном объеме. Интересно, что в тестировании приняли участие 5 ботов и 30 реальных людей. Только в 33% случаев из ста жюри смогло определить, что это компьютер. Дело тут в том, что задача осложнялась тем, что у ребенка интеллект ниже, чем у взрослого человека, да и знаний поменьше.

Вопросы теста Тьюринга были самыми общими, правда, для Юджина (Euegene) были и некоторые конкретизированные вопросы о событиях в Одессе, которые не могли остаться незамеченными ни одним жителем. Но ответы все равно заставляли думать, что перед жюри ребенок. Так, например, на вопрос о местожительстве программа ответила сразу. Кода был задан вопрос, находился ли собеседник такого-то числа в городе, программа заявила, что не хочет об этом говорить. Когда собеседник попытался настаивать на разговоре в русле того, что именно произошло в этот день, Юджин открестился тем, что заявил, мол, вы и сами должны знать, чего ж его-то спрашивать? В общем, эмулятор ребенка оказался на редкость удачным.

Тем не менее это все-таки эмулятор, а не мыслящее существо. Так что восстание машин не состоится еще очень долго.

Обратная сторона медали

Напоследок остается добавить, что пока предпосылок для создания мыслящих машин в ближайшем будущем нет. Тем не менее если раньше вопросы распознавания относились именно к машинам, теперь то, что ты не машина, приходится доказывать практически каждому из нас. Посмотрите хотя бы на ввод капчи в Интернете для получения доступа к какому-то действию. Пока считается, что еще не создано ни одно электронное устройство, способное распознать искореженный текст или набор символов, кроме человека. Но кто знает, все возможно…

загрузка...

fjord12.ru


Читайте также
  • Гиперскоростная звезда – более 1.000.000 миль в час
    Гиперскоростная звезда – более 1.000.000 миль в час
  • Астрономы обнаружили самую большую спиральную галактику
    Астрономы обнаружили самую большую спиральную галактику
  • Млечный путь содержит десятки миллиардов планет, схожих с Землей
    Млечный путь содержит десятки миллиардов планет, схожих с Землей
  • Млечный путь разорвал своего спутника на четыре отдельных хвоста
    Млечный путь разорвал своего спутника на четыре отдельных хвоста
  • Найден источник водородных газов для нашей Галактики
    Найден источник водородных газов для нашей Галактики