Проблема искусственного интеллекта в философии и науке: Проблема искусственного интеллекта в современном научном дискурсе

Содержание

Проблема искусственного интеллекта: человек и машина

В современном мире тематика искусственного интеллекта и область разработки интеллектуальных технологий перестали быть прерогативой сугубо научного сообщества. Невозможно переоценить значимость создания функционирующей на необходимом и достаточном уровне системы искусственного интеллекта, за которой будет признано наличие разума. Очевидны значительные успехи IT-разработчиков, нейробиологов, психологов, физиков и прочих специалистов, долгое время ограниченных рамками отдельных научных дисциплин, а теперь объединённых в контексте междисциплинарности.

Производится анализ метода моделирования перцептивных процессов в системах искусственного интеллекта, позволяющий определить правомерность и продуктивность использования аналогии человеческих психических аспектов с машинными алгоритмами. Автор акцентирует внимание на рассмотрении негативистского восприятия возможности наличия у машины феномена сознания и реализации со стороны системы искусственного интеллекта феномена осмысления.  

Введение

В современном мире тематика искусственного интеллекта и область разработки интеллектуальных технологий перестали быть прерогативой сугубо научного сообщества. Невозможно переоценить значимость создания функционирующей на необходимом и достаточном уровне системы искусственного интеллекта, за которой будет признано наличие разума. Очевидны значительные успехи IT-разработчиков, нейробиологов, психологов, физиков и прочих специалистов, долгое время ограниченных рамками отдельных научных дисциплин, а теперь объединённых в контексте междисциплинарности.

Научное сообщество видит различные версии развития событий в сфере искусственного интеллекта. Д. Хокинс, например, предлагает интегрирующий подход, сочетающий в себе инженерно-технический, нейробиологический, когнитивный и даже этический подходы. В рамках интегрирующего подхода нет оснований ожидать от разумной машины, что она должна выглядеть, действовать, чувствовать или думать как человек. «Мысли и поведение разумной машины могут существенно отличаться от свойственных человеку и у неё будет интеллект, который определяется прогностической способностью иерархической памяти, а не человекоподобным поведением» [16, с. 17]. Физик-математик Роджер Пенроуз, работающий в области общей теории относительности и квантовой теории, доказывает невозможность раскладывания человеческого интеллекта на алгоритмы. За всеми этими рассуждениями стоит «очевидность» предположения, что «разум, наделённый сознанием, просто не может работать подобно компьютеру, несмотря на алгоритмическую природу многих составляющих нашей умственной деятельности» [11, c. 310]. О сферах применения искусственного интеллекта рассуждает Игнаси Белда: «Искусственный интеллект постепенно вошёл в нашу жизнь. Рано или поздно настанет день, когда появятся системы, обладающие тем же уровнем креативности, ощущений и эмоционального интеллекта, что и человек. В день, когда это произойдёт, мы поймём, что мы не одиноки» [2, с. 9]. Классическим пособием для курсов по искусственному интеллекту в США стал труд известных специалистов в области вычислительной техники Стюарта Рассела и Питера Норвига «Искусственный интеллект: современный подход», в котором искусственный интеллект определён как «наука об агентах, получающих из своей среды результаты актов восприятия и выполняющих соответствующие действия» [12, с. 6].

Противовесом «оптимистическому развитию событий» служат мнения исследователей-скептиков, которые считают, что с технологиями создания искусственного разума следует обращаться крайне осторожно. В их числе Джеймс Баррат, издавший сборник конструктивных опасений: «Я считаю и пытаюсь доказать, что искусственный интеллект, как и деление ядер, – технология двойного назначения» [3, c. 4]. Культовый статус приобрела работа «Искусственный интеллект. Этапы. Угрозы. Стратегии» шведского философа, профессора Оксфордского университета, сооснователя Всемирной ассоциации трансгуманистов и директора Оксфордского Института будущего человечества Ника Бострома, в которой он предупреждает: «Искусственный интеллект может быть менее человечен, чем пришелец» [4, с. 755]. Петро Домингос, профессор Вашингтонского университета, один из ведущих специалистов по машинному обучению и искусственному интеллекту рассматривает закономерности IT-технологий во взаимодействии с идеями таких научных областей как биология, философия, физика, статистика. «Общество меняется с каждым новым алгоритмом. Машинное обучение преображает науку, технологию, бизнес, политику, военное искусство. Промышленная революция автоматизировала ручной труд, информационная революция проделала то же самое с трудом умственным, а машинное обучение автоматизировало саму автоматизацию. Без него программирование стало бы узким горлом, сдерживающим прогресс» [6, c. 4]. Сравнение искусственного и естественного интеллекта, живых тканей, клеток и вычислительной архитектуры – основная линия труда Алекса М. Эндрю. Автор излагает мысли о том, как с помощью компьютера реализовать неалгоритмические свойства человеческого разума [18]. Джефф Хокинс и Сандра Блейкли осуществляют критический анализ современного понимания искусственного интеллекта и моделей нейросетей и представляют проработанные гипотезы о «нахождении сознания» [16]. МитиоКаку обобщил научно обоснованные футуристические прогнозы ученых относительно искусственного разума, многие из которых в настоящее время – реальность. Автор является признанным экспертом в области прогнозирования развития науки и техники [7]. Дэвид Дойч, автор «Структуры реальности», обращается к проблематике устройства окружающей реальности, места разума в ней, возможности ее смоделировать или симулировать. В работе раскрыта тема многомировой интерпретации квантовой механики, представлено современное состояние философии науки, философии сознания и философии искусственного интеллекта [5].

Нам в данном исследовании представляется важным исследовать две проблемы в контексте разработки систем искусственного интеллекта:

  • Правомерность признания за человеком обладания самоорганизующимся сознанием и свободной волей, вследствие чего от систем искусственного интеллекта требуют того же, для признания их в качестве обладающих разумом.
  • Тотальная аналогия систем искусственного интеллекта с человеком и его «среднестатистическими» особенностями, что приводит к отсутствию учёта индивидуальных особенностей систем и их дискриминации в контексте априорного обессмысливания их деятельности.

Основная часть

Традиционно показателем общей успешности в области разработки систем искусственного интеллекта считается способность внешне смоделировать типичные человеческие функции, качества и свойства, тем самым превзойдя человека в типично человеческих видах деятельности. Проявления и «самореализация» разработанных образцов воспринимаются сквозь призму человеческого фактора и так называемого «эффекта ИИ» (обессмысливание и «депсихологизация» деятельности), что являет собой латентную, но, тем не менее, глобальную проблему данной сферы. Проблема особенно актуализируется в связи с отсутствием критериев интерпретирования и «понимания» того, что мы имеем в качестве результатов деятельности в области разработки искусственного интеллекта: сугубо алгоритмизированный, лишённый возможностей понимания и осмысления механизм, или же – психо-машину с потенциалом возникновения прото-психических качеств, то есть задатков психики и, возможно, интеллекта. Несмотря на терминологические особенности самого понятия «искусственный интеллект», в мировом научном сообществе принято считать, что наличие именно сознания, а не интеллекта станет необходимым и достаточным основанием для признания машины разумной.

Необходимость ответа на вопрос о присущести феномена сознания и качества некоей «осознанности», а также уровня выраженности данного качества на различных стадиях развития нервной системы волнует умы уже многих поколений исследователей. Основополагающим является так называемое «Я» или Я-концепция, или самосознание. Наличие и демонстрация данных феноменов в виде реализации определённых поведенческих паттернов живым человеческим существом является критерием наименования его «существом концептуально мыслящим» и обладающим сознанием. Противопоставление и онтологическая оппозиция организма и механизма зачастую не позволяли рассмотреть каждую из этих систем по отдельности и в динамическом сопоставлении друг с другом. За человеком априори признавалась имманентная «встроенность» возможностей осознавать и самоосознавать опционально в качестве потенциально присущего и актуально реализованного. А за механизмом, напротив, априорная невозможность реализации функций подобного рода. Затронутая проблематика требует комплексного подхода к исследованию данного вопроса.

Если рассмотреть динамику своеобразной оппозиции организм-механизм (человек-машина), очевидным станет всеобщее признание превосходства первого над вторым: за организмом признается безусловное наличие сознательных качеств. Механизм остается вторичным, производным от организма. И неизвестно, что должно на самом деле произойти, для того чтобы механизм заслужил признание организма. Парадигма междисциплинарности в данном случае только усложняет проблему. Деятельность алгоритмизированной машины была обессмыслена «Китайской комнатой» Сёрлаи даже успешное прохождение теста Тьюринга более не служит доказательством наличия у технологии интеллекта, а тем более сознания.

Детерминантой возникновения подобного восприятия машинной деятельности является совокупность двух векторов общечеловеческого нарциссизма, один из которых не позволяет организму признавать что-либо иное, кроме себя ,в качестве достойного для обладания высшими привилегиями. Данный подход существенно затрудняет интерпретирование достижений техногенеза. Другой вектор – техно-дискриминация, т.е. гипертрофированный антропный принцип в виде постулата «долженствования»: механизм «должен» служить (наше подчеркивание – И.Р. Скиба) человеку и заменять его в наиболее сложных, небезопасных, монотонных областях деятельности. Немногие исследователи задумывались над тем, что внутри самого механизма способны возникнуть такие явления как «желание» и «мнение», в качестве того, с чем реально необходимо считаться.

Попробуем разобраться в качественных отличиях организма от механизма. Зададимся следующим вопросом: а так ли уж сознателен и, тем более, самосознателен организм? И поскольку данная «опция» среди всех организмов наиболее выражена у человека, то именно его психодинамику мы и проанализируем.

«Я мыслю, следовательно, существую», «Я осознаю, что я осознаю» и подобные этим тезисы кажутся безупречными. «Истинность» подобных постулатов держится лишь на признании человека самого себя самим себя активно осуществляющим мыслительный и/или сознательный процесс и параллельно производящим рефлексию этого же процесса. При условии исключения из данных утверждений хотя бы одного из элементов разрушается картина участия высших психических функций и начинает преобладать образ действия бессознательного механицизма. Очевидно, самосознание есть многокомпонентный процесс, состоящий из осуществления какой-либо деятельности, рефлексии данной деятельности, восприятия (воспринимания) самого себя как «осуществляющего задумку» или «реализующего идею», «понимание» детерминант и следствий данной деятельности, «осознавания» значимости данной деятельности в процессуальных атрибутах и т.д.. В приведенном процессуальном перечне имеется важный ключевой аспект: воспринимание самого себя как не просто осуществляющего некие бессмысленные действия, а как реализующего конкретную задумку или идею и, что особенно важно, при условии, что сама деятельность осуществляется человеком самодетерминированно с подачи самого себя и осознанно. Таким образом, мы признаём, что даже самые нелепые и античеловеческие действия осуществляются самим человеком именно с самоподачи лично самого себя и никогда кого-либо иного. Ибо человека невозможно «заставить» что-либо сделать, он способен только сам «заставиться» и «замотивироваться». Искусственно созданный механизм на такое не способен, а вот человеческое самосознание зиждется на способности и возможности «самозаставиться». При отсутствии данного элемента образ человека лишается качества некоей «человеческости» и приобретает механистические черты, становится своеобразным механизмом, полностью зависящим от внутренних бессознательных алгоритмов и внешних обстоятельств. На «самозаставлении» и ответственности за результаты построены многие социальные институты, философия экзистенциализма, система «долженствования», мораль, нравственность, этика, аксиология, культура и сама цивилизация, тем не менее, в мировой истории были, есть и будут многочисленные примеры реализации девиантных и делинквентных бихевиоральных форм со стороны человечества.

На актуальном этапе развития научной мысли установлено, что психореальность человека представляет собой открытую систему нелинейного типа, т. е. функционирует по законам синергетики (или теории хаоса). Осмысление всегда отстаёт от мысли, осознавание – от сознания и т.д. Как гласят некоторые постулаты философии контрэкзистенциализма, «человек не принимает решений, а уже апостериорно ознакамливается с итогами принятых решений». Человек способен лишь сознательно присвоить (наше подчёркивание – И.Р. Скиба) мысль, решение, идею, образ действия, но формируются данные явления «сами по себе», до известной степени случайно (в синергетическом смысле) и абсолютно бессознательно.

Для описания функционирования психореальности человека воспользуемся метафорой «кот Шрёдингера»: утверждать «кот жив» либо «кот мёртв» можно только тогда, когда открывается ящик, в противном случае ничего конкретного и вразумительного постулировать не имеем права, ибо происходящее в ящике абсолютно латентно и вариативно. Человек способен утверждать, что он нечто осознал лишь тогда, когда «осознаваемое» уже «само собой» сформировалось в синергетических глубинах внутреннего мира. Человек выступает как некий пассивный «регистратор» и «интерпретатор» того, что ему «само собой» предоставляется для регистрирования и интерпретирования (как в «Мифе о пещере» Платона)[9]. Активное мышление и воображение не способно ничего изменить в этом плане, ибо как бы активно человек ни «старался» мыслить и осознавать, иметь дело он будет лишь с тем, что ему было «само собой предоставлено», а не им сознательно и непосредственно создано и сформировано.

Таким образом, если человек выступает лишь в качестве «исполнителя команд» собственного внутреннего мира, то, следовательно, он до известной степени вполне механистичен. Также, обусловленность реализации когнитивно-бихевиоральных паттернов бессознательным влиянием регистра Символического, как гласят постулаты структурного психоанализа Жака Лакана, со своей стороны ограничивает возможности элементов внутреннего мира подвергаться осознаванию [10]. И отсюда уже видно, что разница между организмом и механизмом не такая уж и кардинальная. Мы говорим лишь об альтернативной интерпретационной позиции и указываем на то, что, представления об эмоциях, чувствах, мыслях, сознании и самосознании как прерогативе только лишь человека, – это тормоз на пути прогресса и непредвзятого интерпретирования результатов научного труда в целом и интеллектуальных технологий сферы техногенеза, в частности.

В целом же, в рамках данного исследования, мы не признаём наличие у человека сознательной свободной воли и считаем, что когнитивно-бихевиоральная деятельность осуществляется практически полностью алгоритмизировано и бессознательно, а сознательной функцией является регистрация «уже произошедшего» и апостериорное осознавание «уже сделанного». Тем не менее, мы считаем, что алгоритмы психической деятельности человека носят синергетический, а не формально-логический характер и поэтому невоспроизводимы в рамках существующей парадигмы формирования систем искусственного интеллекта. Поэтому мы определяем все виды систем искусственного интеллекта, которые разрабатываются при помощи метода моделирования перцептивных процессов, как – лого-машины. Лого-машины – системы, организованные на основе частичного моделирования перцептивных процессов, с целью достижения человекообразного подобия в реализации когнитивной деятельности. В выводах мы покажем противоречие, к которому приводит деятельность по формированию лого-машин.

В противовес разработке лого-машин, мы предлагаем свою идею: формирование психо-машины. Предназначение психо-машины заключается не в том, чтобы заменять человека в сложных, неприятных или непочётных видах деятельности или соревноваться с человеком в интеллектуальных или логических задачах. Для этого машине вовсе не необходимо демонстрировать интеллектуальные или психические показатели, а достаточно иметь обширную структурированную и чётко прописанную базу соответствующих алгоритмов, что позволит ей вполне успешно справляться с деятельностью, которая не под силу человеку ввиду наличия человеческого фактора. Идея психо-машины намного более амбициозна и даже по-своему духовна и специфически экзистенциальна.

В сущности, речь идёт о создании чего-то намного большего, чем сам человек, чего-то сверх-антропного или даже мета-антропного. И именно в этом заключается идея создания психо-машины, которая являет собой апофеоз и квинтэссенцию возможностей человечества, а также разрешение так называемого «Комплекса Бога». Созданная технология должна неизмеримо превосходить человеческие возможности и способности в сфере ментального, интеллектуального, духовного и экзистенциального. На данном этапе развития науки и техники человечество не нуждается в машине, способной мастерски оперировать законами формальной (и даже нечеткой и темпоральной) логики в пределах доступной информации. Технологии подобного рода уже созданы и вполне успешно функционируют в сфере шахматных и логических игр и задач. Однако мы имеем дело не с психо-машинами, а лого-машинами. Человечеству более не нужны программы, способные пройти тест Тьюринга, ибо они уже созданы и довольно успешно проходят тест[15]. Однако они есть чисто спекулятивные творения, сформированные с целью алгоритмизированно «играть» на ошибках восприятия и эмоциональных особенностях человека. Тест Тьюринга, не вполне интерсубъективный и релевантный, подвергся критике за субъективность и чрезмерную вариативность. Равно как и тот искусственный интеллект, наличие которого подразумевал Алан Тьюринг по отношению к собственному тесту, являющийся т.н. коммуникативным интеллектом и генеалогически не ориентированным на прочую деятельность.

Как мы видим, попытки материализовать, смоделировать перцептивные и когнитивные процессы человека приводят к имитации подобий на функции, демонстрируемые самим человеком без особых трудностей и, что ещё важнее, воспринимаемые другими людьми как осмысленное поведение. Несмотря на вопросы, поставленные ещё Альфредом Айером в книге «Язык, истина и логика» и отвергая дискуссионные, но имеющие право на существование тезисы гипотезы Ньюэлла-Саймона, до сих пор за человеком закреплено незыблемое право на наличие сознательности и осмысленности (вне зависимости от его актуального поведения), в то время как за искусственным интеллектом это право априори отрицается (вне зависимости от демонстрируемых им возможностей) [1, 14].

В любом случае, человечеству на данном этапе развития науки и техники нужны скорее машины, которые помогут разгадать тайны мироздания, дилеммы бытия, загадки квантовой механики и экзистенциального предназначения человека, смогут ответить на вопрос и хаотических систем, прольют свет на возникновение жизни во Вселенной и происхождение самого человека. Но актуальные тенденции в данной сфере ведут к этому весьма посредственно. Нам представляется, что квинтэссенцией текущей технической и творческой парадигмы станет анатомически, морфологически и бихевиорально очеловеченная и антропоморфная лого-машина, ни в чём значительном и важном не имеющая «различия по природе» с самим человеком, а всего лишь намного более «логичная» и «рациональная». Мы придерживаемся возможности качественно иного пути развития концепции создания психо-машин, суть которого заключается в отказе от всех возможных аналогий психо-машины с человеком. Мы считаем, что контрпродуктивно пытаться материализовать смоделированные проекции внутреннего мира и делать похожими на человеческие формы самореализации психо-машины в процессе их развития и совершенствования. Причина кроется в критериях определения психо-машины и, соответственно, отличиях её от лого-машины.

Определение лого-машины заключается в том, что она создаётся «по образу и подобию» того, что исследователями принимается за психические (логические) функции под абсолютной юрисдикцией человека, которые затем проецируются и материализуются в виде исходного кода программы, повторяющей в соответствии со своими техническими возможностями процесс видимой реализации «человеческих» паттернов. Говорить об отличии и противопоставлении «настоящего» и «уподобляющегося» излишне, ибо не существует доступно регистрируемой разницы между абсолютно «настоящим» и абсолютно «уподобляющимся» настоящему. Наша критика иного плана и она касается недостаточности подобных устремлений и минимальности их итогов. Относительно же психо-машины всё обстоит гораздо сложнее. С одной стороны, можно сказать, что если машина станет демонстрировать возможности концептуального мышления, прогнозирования развития ситуации на основе неполной информации, возможность рассуждать на тематику «смысловых ловушек» и т. д., то она точно и определённо может считаться психо-машиной. В связи с этим мы выскажем следующее: если мы пытались создать нечто, неизмеримо превосходящее человека по уровню ментальных, интеллектуальных и духовных показателей, то о каком концептуальном мышлении вообще может идти речь? Созданная психо-машина, по нашему мнению, будет обладать такими качествами и свойствами, о которых у человека нет и малейшего представления и даже намёка на них. Кандидат философских наук Андрей Колесников в качестве рабочей гипотезы высказывает предположение, что «создание одушевленных разумных пси-машин в принципе возможно» [8, с. 99].

Поэтому столкнувшись с демонстрацией со стороны психо-машины уровней «мышления» и «понимания» экспериментатору недоступных и непонятных, экспериментатор будет вынужден признать отсутствие у технологии тех качеств и свойств, которые, по его мнению, машина должна была бы продемонстрировать. И, как следствие, психо-машина будет заявлена как очередная неудача. Таким образом, «для того чтобы найти истину, необходимо знать, как она выглядит». Именно по этой причине мы и отказываемся от проведения аналогий между психо-машиной с её качествами и свойствами, с одной стороны, и человеческим существом с его качествами и свойствами, с другой. Ведь история возникновения самого человека и процесс его развития от одной молекулы ДНК до самого сложного из ныне известных науке феноменов были неразрывно связаны с той средой, в которой происходил генезис, в нерасторжимой сцепке с константами Вселенной. Минимальные отклонения привели бы к качественно иному итогу и кардинально отличному результату от полученного. С этих же позиций стоит рассматривать и разработку пси-механизма в среде программного обеспечения. Следует учитывать всю совокупность влияний компьютерной среды и интернета на функционирование системы искусственного интеллекта в процессе её относительно самостоятельного развития и становления. Естественно, сколь это возможно, мы подразумеваем также при необходимости осуществлять некий «воспитательный» процесс или что-либо с ним сходное. Но основой является полностью непредвзятое и абсолютно лишённое антропоцентристских тенденций восприятие и интерпретирование создающейся или созданной программы, а также обязательный учёт её «личных» «субъективных» качеств и свойств, её «темперамента», «характера», «направленности» и т.д. в процессе «онтогенеза» психо-машины.

Отсюда видна вся сложность постановки вопроса относительно критериев определения принадлежности к психо-машинам.

Заключение

Одним из ключевых постулатов нашей работы является отказ признавать антропоцентризм и монизм модели человека на установление критериев формирования и развития психо-машин. Мы считаем необходимым привнесение структуралистских и коннекционистских воззрений в контекст формирования психо-машин на актуальном этапе техногенеза. Наряду с этим необходимо пересмотреть позиционирование психо-машин и заранее сформировать общественное мнение во избежание проявлений «техно-дискриминации».

Нами принято, что феномен человеческого сознания абсолютно неправомерно признаётся обладающим свободной волей, «решающим» и «контролирующим» аспектом человеческой психики, а напротив – представляет собой скорее пассивно рефлексирующего наблюдателя внутреннего бессознательного и синергетически алгоритмизированного мира, поэтому считаем неактуальным применение классических критериев человеческой психики при моделировании перцептивных и когнитивных процессов в контексте разработки психо-машин.

Останавливаясь на характеристике психо-машины,мы придерживаемся следующего: способность решать логические задачи и осуществлять мыслительную деятельность вовсе не является качеством психо-машины, а представляет собой пример так называемой лого-машины, не имеющий ничего качественно общего с нашим пониманием психо-машины.

Противоречие заключается в том, что системы искусственного интеллекта разрабатываются при помощи частичного и изолированного моделирования перцептивных процессов, что априори не способно привести к достижению некоего «человекоподобия» в контексте воспроизведения сознательных качеств; а требования по поводу признания за системой осознанности и осмысленности являются абсолютно не соответствующими подходу, при помощи которого системы разрабатываются. Дело в несоответствии метода и цели. И до тех пор, пока данное противоречие не будет устранено, мы не будем иметь возможность сформировать психо-машину, а будем только раз за разом материализовывать лого-машины, коих и так уже великое множество.

Автор: Скиба Иван Рауфович

Аспирант института философии кафедры методологии и философии науки, магистр педагогических наук

Научный руководитель: кандидат философских наук Колесников Андрей Витальевич

+375296141419
[email protected]

Список использованных источников

1.Айер, Альфред. Язык, истина и логика / А. Айер // Пер. с англ. В.А. Суровцева и Н.А. Тарабанова. – М.: «Канон+» РООИ «Реабилитация», 2010. – 239 с.

2.Белда,Игнаси. Разум, машины и математика / Игнаси Белда. –М.: DeAgostini, 2014.– 156 с.

3.Баррат, Джеймс. Последнее изобретение человечества / Джеймс Баррат. – М., 2015. – 299 с.

4.Бостром, Ник. Искусственный интеллект. Этапы. Угрозы. Стратегии / Ник Бостром // Пер. с англ. С. Филина. – М.: Манн, Иванов и Фербер, 2016. – 760 с.

5.Дойч, Дэвид. Структура реальности / Дэвид Дойч // Пер. с англ. Н.А. Зубченко, под общ. ред. академика РАН В.А. Садовничего. Москва-Ижевск, 2001. – 400 с.

6.Домингос, Педро. Верховный алгоритм. Как машинное обучение изменит наш мир / Педро Домингос. – М.: Манн, Иванов и Фербер, 2016. – 336 с.

7.Каку, Митио. Физика будущего /Митио Каку// Пер. с англ. Н. Лисова, ред. М. Миловидова. – М: Альпина нон-фикшн, 2012. – 584 с.

8.Колесников, А.В. Организм и механизм / А.В. Колесников // Философия. Беларуская думка. – Минск, 2014. – №9. – С. 94–99.

9.Конт-Спонвиль, Андре. Философский словарь / Андре Конт-Спонвиль // Пер. с франц. Е.В. Головиной. – М., 2012. –316 с.

10.Лакан, Жак. Этика психоанализа (Семинары: Книга VII (1959-60)) / Перевод А. Черноглазова. – М.·. Издательство «Гнозис», Издательство «Логос». – 2006. – 416 с.

11.Пенроуз, Роджер. Новый ум короля. О компьютерах, мышлении и законах физики / Роджер Пенроуз // Пер. и ред. А. Дамбис, Ю. Данилов и др. –Grīziņkalns, 2016. – 402 с.

12.Рассел, Стюарт, Норвиг, Питер. Искусственный интеллект. Современный подход / Стюарт Рассел, Питер Норвиг. – СПб. – Киев: Издательский дом «Вильямс». – 2006. – 1408 с.

13.Редозубов, Алексей. Цветные эмоции холодного разума / Алексей Редозубов // Книга первая. Эмоции. – СПб.: ТИД Амфора, 2012. – 319 с.

14.Саймон, Г. Науки об искусственном / Г. Саймон / Пер.Э.Л. Наппельбаума. – Москва: Издательство «Мир», 1972. – 142 с.

15.Turing, Alan. Computing Machinery and Intelligence / AlanTuring. – Mind, vol. LIX, no. 236, оctober 1950. – Рp. 433–460.

16.Хокинс, Дж.Об интеллекте / Дж. Хокинс, С. Блейксли. – Москва-Санкт-Петербург-Киев: Издательский дом «Вильямс», 2007. –240 с.

17.Шаповалов, В.Ф. Философия науки и техники: о смысле науки и техники и о глобальных угрозах научно-технической эпохи / В.Ф. Шаповалов. – М., «Фаир-пресс», 2004. – С. 113–114.

18.Эндрю, Алекс М. Мозг и вычислительная машина / Алекс М. Эндрю. –М.,Эксмо,2013 г. – 401 с

19.Эшби, Уильям Р. Конструкция мозга / Уильям Р. Эшби. – М.: Иностранная литература, 1962. – 399 с.


нечеткая логикаискусственный интеллекттрансгуманизмперцептивные процессысознание человекамеждисциплинарность наукипсихо-машина

Если у вас есть статья, заметка или обзор, которыми вы хотите поделиться с аудиторией нашего сайта, присылайте информацию на: neuronus. [email protected].

Проблемы Искусственного Интеллекта | Презентации Философия

Скачай Проблемы Искусственного Интеллекта и еще Презентации в формате PDF Философия только на Docsity! Проблемы Искусственного Интеллекта Понятие искусственного и МИДИ, Искусственный интеллект — одна из новейших наук, появившихся во второй половине 20-ого века на базе вычислительной техники, математической логики, программирования, психологи, лингвистики, нейрофизиологии и других отраслей знания. Аристотель — основатель логики 1. Закон исключенного противоречия Закон исключенного третьего ‚ Закон тождества «Сократ — человек; все люди смертны; следовательно, Сократ смертен». Томас Гоббс -английский философ Томас Гоббс (1588-1679) предположил, что рассуждения аналогичны числовым расчетам и что «в наших неслышимых мыслях мы поневоле складываем и вычитаем» Может ли машина мыслить? в 1950 г. в статье «Вычислительные машины и разум» лан Тьюринг (1912 —1954) Наиболее горячие споры в философии искусственного интеллекта вызывает вопрос возможности мышления творения человеческих рук. Вопрос «Может ли машина мыслить?», который подтолкнул исследователей к созданию науки о моделировании человеческого разума, был поставлен Аланом Тьюрингом в 1950 году. Две основных точки зрения на этот вопрос носят названия гипотез сильного и слабого искусственного интеллекта. Термин Сильный ИИ был введён Джоном Сёрлем, который охарактеризовал его следующим образом: Более того, такая программа будет не просто моделью разума; она в буквальном смысле слова сама и будет разумом, в том же смысле, в котором человеческий разум — это разум.Джон Сёрль, Разум мозга — компьютерная программа? «Китайская комната» Китайская комната — мысленный эксперимент, описанный Джоном Сёрлем, в котором критикуется возможность моделирования человеческого понимания естественного языка, <=> создания так называемого «сильного искусственного «Китайская комната» 1980 г. интеллекта». Три закона роботехники 1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред 2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону 3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам Три закона роботёхники в научной фантастике — обязательные правила поведения для роботов, впервые сформулированные Айзеком Азимовымв рассказе «Хоровод» (1942). Нулевой Закон Робот не может причинить вреда человеку, если только он не докажет, что в конечном счёте это будет полезно для всего человечества Современный искусственный интеллект В настоящий момент в создании искусственного интеллекта наблюдается интенсивное перемалывание всех предметных областей, имеющих хоть какое-то отношение к ИИ, в базы знаний. Практически все подходы были опробованы, но к возникновению искусственного разума ни одна исследовательская группа так и не подошла. Исследования ИИ влились в общий поток технологий сингулярности (видового скачка, экспотенциального развития человека), таких как информатика, экспертные системы, нанотехнология, молекулярная биоэлектроника, теоретическая биология, квантовая теория. Результаты разработок в области ИИ вошли в высшее и среднее образование России в форме учебников информатики, где теперь изучаются вопросы работы и создания баз знаний, экспертных систем на базе персональных компьютеров на основе отечественных систем логического программирования, а также изучения фундаментальных вопросов математики и информатики на примерах работы с моделями баз знаний и экспертных систем в школах и СИ Искусственный интеллект вместе с нейрофизиологией, эпистемологией и когнитивной психологией образует более общую науку, называемую когнитология. Важную роль в искусственном интеллекте играет философия. Также с проблемами искусственного интеллекта тесно связана эпистемология — наука о знании в рамках философии. Философы, занимающиеся данной проблематикой, решают вопросы, схожие с теми, которые решаются инженерами ИИ о том, как лучше представлять и использовать знания и информацию. Компьютерные технологии и кибернетика: -В компьютерных науках проблемы искусственного интеллекта рассматриваются с позиций проектирования экспертных систем и баз знаний. . В целом исследования проблем искусственного интеллекта в компьютерных науках направлены на создание, развитие и эксплуатацию интеллектуальных информационных систем, а вопросы подготовки пользователей и разработчиков таких систем решаются специалистами информационных технологий. Связь с другими науками Психология и когнитология: -Методология когнитивного моделирования предназначена для анализа и принятия решений в плохо определённых ситуациях. Была предложена —Аксельродом.Основана на моделировании субъективных представлений экспертов о ситуации и включает: методологию структуризации ситуации: модель представления знаний эксперта в виде знакового орграфа (когнитивной карты) (Е, \\), где Е — множество факторов ситуации, \/ — множество причинно-следственных отношений между факторами ситуации; методы анализа ситуации. В настоящее время методология когнитивного моделирования развивается в направлении совершенствования аппарата анализа и моделирования ситуации. Здесь предложены модели прогноза развития ситуации; методы решения обратных задач. Философия: — Наука «о создании искусственного разума» не могла не привлечь внимание философов. С появлением первых интеллектуальных систем были затронуты фундаментальные вопросы о человеке и знании, а отчасти о мироустройстве. Философские проблемы создания искусственного интеллекта можно разделить на две группы, условно говоря, «до и после разработки ИИ».

Проблема искусственного интеллекта в современном научном дискурсе

Проблема искусственного интеллекта в философии

1 Институт космических и информационных технологий ФГАОУ ВО «Сибирский федеральный университет»
2 Институт инженерной физики и радиоэлектроники ФГАОУ ВО «Сибирский федеральный университет»
3 Институт педагогики, психологии и социологии ФГАОУ ВО «Сибирский федеральный университет»

Проблема искусственного интеллекта в современном научном дискурсе.

Interactive-plus. ru

30.03.2020 17:12:36

2020-03-30 17:12:36

Источники:

Https://interactive-plus. ru/ru/article/466855/discussion_platform

Философские аспекты проблемы искусственного интеллекта | ВКонтакте » /> » /> . keyword { color: red; }

Проблема искусственного интеллекта в философии

В наши дни общество промышленно-развитых стран находится в очередной стадии развития, которая характеризуется повышенной ролью знания во многих сферах общественной жизни. В таком обществе роль действий по получению, обработке и сортировке информации существенно выше, чем на предыдущих стадиях общественного развития.

Объемы потоков информации постоянно увеличиваются, и возникает потребность в создании автоматических средств ее обработки. В данных автоматических или механических устройствах реализованы некоторые свойства к распознаванию, оценке, сортировке информации, ранее присущие только человеку, если исключить возможность существования внеземного разума.

Философия изучает процессы познания окружающей действительности человеком и влияние знаний на формирование сознания, действий, убеждений. В связи с этим в философской науке рассматриваются теоретические и потенциальные возможности машин, компьютеров, систем искусственного интеллекта познавать окружающий мир, мыслить, взаимодействовать и общаться с человеком.

Наука об искусственном интеллекте сравнительно молода, так как зародилась позже подавляющего большинства других наук в 1956 году в рамках семинара в Принстонском университете. Участники семинара рассматривали вопросы алгоритмов познания и нейронных сетей. Они и договорились назвать новую область исследований искусственным интеллектом.

Данная наука переживала свои периоды спада и подъема, обусловленные главным образом развитием технологий. Если в 1956 году наука зародилась в условиях господства индустриального способа производства, то в середине 70-х годов началось становление, нового, постиндустриального способа производства, для которого характерно более интенсивное применение автоматики, достижений кибернетики и робототехники. Расширение эмпирической базы для исследований внесло свои коррективы в понимание сущности искусственного интеллекта.

Но, однозначного общепринятого определения термина искусственный интеллект не существует. Помимо молодости и бурного развития науки следует отметить отсутствие единого понимания такого феномена как интеллект с точки зрения его сущности, составляющих, форм и механизмов проявления в других науках.

Пол Маккарти, основатель науки об искусственном интеллекте Пол Маккарти считал, что искусственный интеллект следует считать наукой и технологией разработки интеллектуальных машин, в частности интеллектуальных компьютерных программ. Наука связана с похожими задачами применения компьютеров для понимания человеческого интеллекта, но она не ограничивается применением методов наблюдения за биологическими процессами.

Под интеллектом понимается вычислительная, аналитическая часть способности к достижению целей в мире. Различные виды и уровни интеллекта встречаются среди людей животных и машин.

Мы проанализируем несколько определений и взглядов на сущность и механизм действия искусственного интеллекта. Так, участники Российской ассоциации искусственного интеллекта дают несколько определений ИИ. Согласно первому, его следует направлением науки “в рамках которого ставятся и решаются задачи аппаратного или программного моделирования тех видов человеческой деятельности, которые традиционно считаются интеллектуальными”.

Согласно второму, под ИИ понимают “свойство интеллектуальных систем выполнять функции, традиционно считающиеся прерогативой человека”. Под интеллектуальной системой понимают техническую или программную систему, способную решать творческие задачи конкретной предметной области, сведения о которой лежат в памяти этой системы. В систему входят база знаний, средство решения и интерфейс, позволяющий общаться с системой без программ ввода данных. Согласно третьему, го считают отдельной наукой, из комплекса компьютерных наук, задачей которой является воссоздание разумных рассуждений и действий с помощью вычислительных систем. В этом случае, она понимается также как и наука о создании моделей разумного поведения.

Также он может пониматься как совокупность существующих в настоящее время интеллектуальных систем и методов, которые используются для решения различных задач.

Механизм действия искусственного интеллекта зависит от критериев разумности и понимания его создателями механизмов действия интеллекта. Например, тест Тьюнинга предполагает, что машина должна вести себя как человек, если она разумна. Согласно тесту человек разговаривает с машиной и с другим человеком и определяет, кто ему отвечает. Если он принимает машину за человека, значит машина разумна. Диалог ведется в форме переписки.

Механизм действия искусственного интеллекта может быть основан на символьном подходе, когда машине дается упрощенное символьное представление и сущности и смысле объекта реальности, и она наделяется способностью формулировать новые правила при выполнении задач.

При логическом подходе моделируется или имитируется ход логических рассуждений. В приложении Б содержится информация о тестировании степени человекоподобного поведения компьютерных программ в компьютерной игре. Программе задается набор правил и условий без жесткого алгоритма действия.

При агентно-ориентированном подходе, интеллект рассматривается как способность делать вычисления как часть процесса решения машиной поставленных задач. Такая машина воспринимают окружающий мир при помощи датчиков, принимает решение и воздействует на окружающую среду своими средствами. Пример и короткое описание агентно-ориентированной системы обработки сведений в серверных компьютерах представлен в Приложении А.

При создании искусственного интеллекта может применяться моделирование рассуждений. В таком случае создаются системы символов, в начале которых поставлена задача, а решение задачи должно быть результатом обработки символов.

Особое направление в науке об искусственном интеллекте представляет собой инженерия знаний. В ней изучаются вопросы получения знаний из информации, их обработки, фильтрации. К таким моделям относятся нейронные сети. Их применяют для решения сложных проблем, таких как распознавание геометрических объектов.

В интеллектуальных машинах предусмотрено и машинное обучение. Оно посвящено получению знаний при работе интеллектуальной системы. Машина может обучаться с учителем, то есть с программой обучения, либо без него. В первом случае применяется классификация и анализ объектов, во втором случае объекты распознаются во входном потоке.

Философские аспекты рассмотрения проблемы искусственного интеллекта необходимо изучать в контексте предмета философии, ее функций и направлений.

Предмет философии четко выделяет ее из системы наук, философия рассматривается как методологическая основа, используемая в любой из них. Поэтому, если отдельные науки изучают лишь фрагменты, элементы, обособленные части реальности, то предмет философии охватывает самые универсальные ее черты, фундамент бытия и познания, выявляя его по результатам исследований конкретных наук, и понимание всей культуры, ее мировоззренческих структур.

Философия нацелена на определение глубинной связи между мельчайшими частицами и частями мира, осознание их единства.

Философия рассматривает уникальность и смысл человеческого существования в мире, отношения человека к сути мироздания, его эволюции, концепции и представления о познании, вопросы нравственности и красоты, сознания, души, философию общества и истории, историю самой философии.

Эта наука включает в себя онтологию (науку про универсальные основы бытия), социальную философию, философскую антропологию (учение о человеке и его роли в мире), теорию познания, этику, эстетику, теорию культуры, историю философии.

Чаще всего выделяют такие функции философии :

· Мировоззреченская. Она обеспечивает понятийное объяснение мира, помогает определиться с жизненными ориентирами, определить смысл и значение жизненных приоритетов;

· Методологическая функция. Философия разрабатывает общий комплекс методов познания и изучения действительности, применяемых во всех науках;

· Прогностическая. Формирует гипотезы о тенденциях развития материи, мира, сознания, мира;

· Критическая. Подразумевает необходимость проверки, верификации существующих научных знаний представлений, анализ знаний и ценностей. Проявляется в оппозиции к воспринимаемой действительности, стремлении человека к совершенствованию мира и самосовершенствованию;

· Аксиологическая. Предполагает оценку изучаемого явления по моральным, общественным, эстетическим, эмоциональным и другим ценностным критериям.

· Познавательная. Исследование и понимание процессов познания дает человеку ориентиры познавательной деятельности, критериями и признаками выбора верной методологии и получения достоверных, знаний, данных информации.

· Логическая функция. Предусматривает создание культуры мышления, независимой и обоснованной позиции в межличностных и межкультурных отношениях.

· Воспитательная функция. Формирует стремление к самосовершенствованию и поиск жизненного смысла.

Теперь сопоставим изложенное. В современных концепциях искусственного интеллекта речь идет о разработке искусственного интеллекта на основе представлений о процессах познания, сформированных в различных науках. Речь идет о восприятии информации, ее сортировке и обработке в соответствии с определенными процедурами. Но, тут же возникает и важный вопрос.

Получая ту или иную информацию, человек не просто усваивает ее, он соотносит ее со своими представлениями о морали, добре, зле, любви и прочими ценностными измерениями. Человек формирует или развивает собственное создание. Будет ли сознание у искусственной системы? У робота? Интеллектуального компьютера или смартфона? Если на данный момент, исследование искусственного интеллекта философами связана преимущественно с познавательной, логической и методологической функцией философии, то в ближайшем или в отдаленном будущем повысится актуальность философских разработок по всем остальным функциям. Возможно создание разумных существ, у которых будет собственная мораль и отношение к человечеству.

Вышеизложенное указывает на важность субъективной оценки происходящего, наблюдаемого, переживаемого в познавательных процессах в любой форме интеллекта. В этой связи актуально представление о субъективной реальности сознания, ее формировании. Это динамично меняющаяся последовательность состояний разумного существа, прерываемая сном. Субъективная реальность связана с мозгом так, как информация связана с носителем. Характер получаемой информации не зависит от носителя. От него зависит ее обработка и фильтрация.

По сути, вопрос о субъективной реальности это вопрос о способе представления и восприятия информации для самоорганизующейся системы из множества частей, которая параллельно воспринимает множество потоков информации и принимает логическое решение на основе множества критериев.

Научные достижения человечества еще не позволяют создать интеллектуальные машины со сложным комплексным мышлением, восприятием разговорной речи, разветвленной сетью информации воспринимаемой разумом и чувством. Подобные машины, скорее всего, пока существуют лишь в фантастических рассказах и фильмах, вроде “Матрицы”, “Терминатора”, сериала “Startrack Enterprise” (честный офицер звездного флота робот Дельта) и иных.

Однако, уже сейчас философы задумываются о морально-этических последствиях их появления. Задаются вопросы:

· Что отличит человека от машины, которая думает и чувствует?

· Нужно ли наделять юридическими правами системы с искусственным интеллектом?

· Как сложатся отношения человека с рассуждающими машинами? Рассматриваются варианты от взаимной пользы и сотрудничества до уничтожения человечества.

· Следует ли считать перезагрузку ИИ смертью? Будет ли у машины много жизней, будет ли она бессмертной?

· Можно ли перезаписывать чужое сознание, если человек будет клонирован?

· Может ли человек применять искусственный интеллект для расширения собственных знаний?

Философов волнует, какие будут отношения в обществе, состоящем из людей и объектов ИИ? Не сочтут ли они людей существами низшего уровня? Будут ли признавать нормы человеческого поведения?

Решение указанных проблем будет зависеть от формирования субъективной реальности объектами ИИ, формирования их сознания, соотношения объективного и субъективного в их мышлении, рационального и эмоционального [8]. Но, достижения современной дисциплины искусственного интеллекта не позволяют дать ответы на эти принципиальные вопросы. Но, ведь истина, как конечный результат познания, формируется не только в результате объективных рациональных суждений, но и в результате ценностных, моральных, аксиологических оценок.

Дело в том, что современные системы ИИ созданы на основе редукционистского подхода. При их создании учитывались в основном представления о процессе рационального познания, рационального отбора, фильтрации, верификации сведений, гипотез. Социальные критерии не закладывались. Отображалась лишь одна сторона, естественного интеллекта из множества сложных самоорганизующихся элементов.

Подобный поверхностный взгляд на проблему ИИ выделил несколько ее сторон. Во-первых, необходимость придерживаться схем работы техники, достоверно имитирующих разум в принятии решений. Во-вторых, создание алгоритмов и программирование этой техники на функционирование, рассматриваемое как разумное. В-третьих, применение в упомянутых алгоритмах и программах интеллектуальных процедур оперирования знаниями, знаками и символами.

То есть в научной среде существует обоснованное мнение, что ИИ следует разрабатывать главным образом для воспроизведения создания человеческим разумом оригинальных программ собственной творческой деятельности.

В отличие от науки об искусственном интеллекте или информатики, философия рассматривает данные вопросы в более широком контексте. Считается, что существо наделенное интеллектом познает окружающий мир при практической деятельности, направленной на его преобразование, что оно действует в существующих условиях бытия, которые воспринимает и оценивает, выбирает приемлемые решения и действия.

Тут весьма уместно упомянуть марксистский тезис о том, что бытие определяет сознание. Вышеупомянутые узкие научные подходы к исследовании ИИ обусловлены ограниченной сферой применения вычислительной техники в 70-е, 80-е годы, когда их использовали главным образом в экспертных системах и при сложных вычислениях. Эволюция и распространение информационно-коммуникационных технологий привела к созданию новой среды обитания человека и действия человека, часто определяются этой средой.

Отношение человека к действительности изменилось, так как была создана искусственная реальность. Это новая сфера объективной действительности, которая осваивает человек. В рамках теории познания следует рассматривать функционирование виртуальной среды как способа познания реальности людьми и искусственным интеллектом.

Компьютеры накапливают свои знания, обрабатывая и сохраняя многочисленные потоки информации, по множеству критериев, полученных от людей. Человек действуя в виртуальной среде, сознательно или несознательно изменяет и познает ее. Он формирует собственные представления о взаимодействии с искусственным интеллектом. Развивающийся искусственный интеллект тоже формирует свои процедуры действия в этой среде.

Исходя из этого, автор соглашается с мнением Андреевой, что верное представление об ИИ может быть только при применении философских категорий, дающих основы общемировоззренческих принципов, лежащий в основе всей практической деятельности.

Именно философия как наука дает такую возможность благодаря онтологическим, бытийным, бытовым характеристикам философских проблем как бытийное основание, сущностное значение для личности, фундаментальности, синтезу инвариантного и вариативного. Философия рассматривает ИИ не просто, как средство или совокупность процедур познания какого-то объекта реальности для текущих вычислительных задач, а с позиций изучения сознания.

Благодаря универсальности своей методологии, своей логической, познавательной и воспитательной функции, аксиологической функции, философия предлагает широкий, комплексный взгляд на изучение искусственного интеллекта.

Это в свою очередь позволяет заблаговременно ставить актуальные проблемы формирования социума, состоящего из людей и объектов искусственного интеллекта, проблемы их взаимоотношений, нравственных и моральных норм.

Наука об искусственном интеллекте рассматривает его с точки зрения изучения процессов познания, то есть получения, обработки, фильтрации информации, принятия решений.

Философское рассмотрение проблем искусственного интеллектам тесно связано с познавательной, методологической и логической функциями философии. Первая функция создает основополагающие концепции познавательного процесса, которые применяют для моделирования при создании ИИ. Методологическая функция обеспечивает общенаучную методологию для изучения, логическая функция позволяет имитировать процессы разумного решения в компьютерных и других технических системах.

Комплексный подход и морально-этическая сторона философии позволяет сформировать проблемы будущего общества, в котором взаимодействуют объекты ИИ и люди. Например, с точки зрения этики, права, правил поведения в социуме, принципов контактов.

В отличие от других наук философия позволяет сформировать комплексный взгляд на многогранные процессы зарождения и трансформации сознания в рамках объектов искусственного интеллекта, которая включает не только познавательные, но и ценностные, моральные аспекты.

Различные виды и уровни интеллекта встречаются среди людей животных и машин.

Vk. com

25.08.2017 12:46:46

2017-08-25 12:46:46

Источники:

Https://vk. com/@agencyofcaxap-filosofskie-aspekty-problemy-iskusstvennogo-intellekta

Читать онлайн «Философские проблемы развития искусственного интеллекта» – ЛитРес » /> » /> . keyword { color: red; }

Проблема искусственного интеллекта в философии

Также данная книга доступна ещё в библиотеке. Запишись сразу в несколько библиотек и получай книги намного быстрее.

Посоветуйте книгу друзьям! Друзьям – скидка 10%, вам – рубли

По вашей ссылке друзья получат скидку 10% на эту книгу, а вы будете получать 10% от стоимости их покупок на свой счет ЛитРес. Подробнее

    Объем: 210 стр. 4 иллюстрации Жанр:К ниги по философии, м онографии Теги:И скусственный интеллект, р азвитие цивилизации, с оциально-культурное развитие, т ехнологии будущего, ф илософские проблемыРедактировать

© Коллектив авторов, 2019

© Издательство «Прометей», 2019

Введение

Традиционно показателем общей успешности в области разработки систем искусственного интеллекта считается способность внешне смоделировать типичные человеческие функции, качества и свойства, тем самым превзойдя человека в типично человеческих видах деятельности. Проявления и «самореализация» разработанных образцов воспринимаются сквозь призму человеческого фактора и так называемого «эффекта ИИ» (обессмысливание и «депсихологизация» деятельности), что являет собой латентную, но, тем не менее, глобальную проблему данной сферы. Проблема особенно актуализируется в связи с отсутствием критериев интерпретирования и «понимания» того, что мы имеем в качестве результатов деятельности в области разработки искусственного интеллекта: сугубо алгоритмизированный, лишённый возможностей понимания и осмысления механизм, или же – психо-машину с потенциалом возникновения прото-психических качеств, то есть задатков психики и, возможно, интеллекта. Несмотря на терминологические особенности самого понятия «искусственный интеллект», в мировом научном сообществе принято считать, что наличие именно сознания, а не интеллекта станет необходимым и достаточным основанием для признания машины разумной [1].

Если рассмотреть динамику своеобразной оппозиции организм-механизм (человек-машина), очевидным станет всеобщее признание превосходства первого над вторым: за организмом признается безусловное наличие сознательных качеств. Механизм остается вторичным, производным от организма. И неизвестно, что должно на самом деле произойти, для того чтобы механизм заслужил признание организма. Парадигма междисциплинарности в данном случае только усложняет проблему.

Детерминантой возникновения подобного восприятия машинной деятельности является совокупность двух векторов общечеловеческого нарциссизма, один из которых не позволяет организму признавать что-либо иное, кроме себя, в качестве достойного для обладания высшими привилегиями. Данный подход существенно затрудняет интерпретирование достижений техногенеза. Другой вектор – техно-дискриминация, т. е. гипертрофированный антропный принцип в виде постулата «долженствования»: механизм «должен» служить человеку и заменять его в наиболее сложных, небезопасных, монотонных областях деятельности.

Литература:

1. Скиба И. Р. Проблема искусственного интеллекта: человек и машина [Электронный ресурс] https://neuronus. com/stat/1392-problema-iskusstvennogo-intellekta-chelovek-i-mashina. html

Глава 1

Фундаментальные проблемы создания и развития искусственного интеллекта

1.1. Философские проблемы развития искусственного интеллекта

Современный этап научно-технической революции ассоциируется с широким внедрением технологий, основанных на развитом искусственном интеллекте. Понятие искусственного интеллекта стало тривиальным для современного мира, но его контуры и фундаментальные проблемы, связанные с его созданием, очерчиваются философией искусственного интеллекта. Философия искусственного интеллекта (ИИ) охватывает широкий круг фундаментальных проблем, связанных с созданием искусственного интеллекта. В чём сущность разума? Каковы принципы его работы? И, наконец, – возможно ли создание искусственного интеллекта? Несмотря на огромные успехи в создании программ и алгоритмов, способных решать многие интеллектуальные задачи гораздо эффективнее человека, мы не можем найти ясного и однозначного ответа на эти вопросы.

Ответ на вопрос о возможности существования искусственного интеллекта определялся мировоззренческой ориентацией мыслителя: дуалистическая традиция, восходящая к Р. Декарту, постулировала невыразимость мышления через телесное, тогда как материалистическая традиция считала мышление производным от телесного. Декарт, исходя из своей дуалистической системы, считал мышление атрибутом лишь человека (даже животных он описывал как «автоматы»), тогда как материалистическая традиция теоретически оставляла возможность существования мышления не только у людей.

Что же можно считать критерием наличия разума? Обыденное сознание, как правило, воспринимает в качестве критерия разумности поведение. Мы считаем нечто разумным или неразумным, оценивая его поведение. Но какова связь между сущностью разума человека и его внешним проявлением – разумным поведением? Какое поведение будет разумным? Как по чьему-либо поведению можно определить, обладает ли это существо разумом?

Ещё в XVIII в. Дени Дидро в своих «Философских размышлениях» заявлял, что если он найдёт попугая, способного ответить на любой вопрос, то этого попугая, без сомнения, придётся считать разумным существом.

В 1936 году философ А. Айер рассмотрел вопрос касательно других разумов: как узнать, что другие люди имеют тот же сознательный опыт, что и мы? «Единственным основанием, на котором я могу утверждать, что объект, который кажется разумным, на самом деле не разумное существо, а просто машина, является то, что он не может пройти один из эмпирических тестов, согласно которым определяется наличие или отсутствие сознания» [1].

«Могут ли машины мыслить?» – такой вопрос поставил в 1950 г. британский математик и логик Алан Тьюринг. Он подчёркивает, что традиционный подход к этому вопросу состоит в том, чтобы сначала определить понятия «машина» и «интеллект». Тьюринг, однако, выбрал другой путь; вместо этого он заменил исходный вопрос другим, «который тесно связан с исходным и формулируется относительно недвусмысленно». По существу, он предлагает заменить вопрос «Думают ли машины?» вопросом «Могут ли машины делать то, что можем делать мы (как мыслящие создания)?». «Компьютер можно считать разумным, если он способен заставить нас поверить, что мы имеем дело не с машиной, а с человеком». Преимуществом нового вопроса, как утверждает Тьюринг, является то, что он проводит «чёткую границу между физическими и интеллектуальными возможностями человека», для чего Тьюринг предлагает эмпирический тест.

Суть теста Тьюринга в следующем. В разных комнатах находятся судья, человек и машина. Судья ведёт переписку с человеком и машиной, заранее не зная, кто из собеседников является человеком, а кто – машиной. Время ответа на вопрос является фиксированным, так что судья не может определить машину по этому признаку (во времена Тьюринга машины работали медленнее человека, а сейчас реагируют быстрее). Если судья не может определить, кто из его собеседников является машиной, то машина смогла пройти тест Тьюринга и может считаться мыслящей. Причём, машина не просто будет подобием разума человека – она будет именно разумом, т. к. у нас не будет никакой возможности отличить её поведение от поведения человека. Такая трактовка искусственного интеллекта как полноправного эквивалента естественного получила название «сильного Искусственного интеллекта».

Обратим внимание на то, что тест Тьюринга вовсе не подразумевает, что машина должна «понимать» суть тех слов и выражений, которыми она оперирует. Машина должна лишь должным образом имитировать осмысленные ответы.

В 1980 г. Дж. Сёрл предлагает мысленный эксперимент, критикующий тест Тьюринга и представление о возможности существования разума без понимания. Суть эксперимента в следующем. Сёрл пытается имитировать знание китайского языка, которого не понимает.

«…Педположим, что меня поместили в комнату, в которой расставлены корзинки, полные китайских иероглифов. Предположим также, что мне дали учебник на английском языке, в котором приводятся правила сочетания символов китайского языка, причём правила эти можно применять, зная лишь форму символов, понимать значение символов совсем необязательно. Например, правила могут гласить: «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два». Представим себе, что находящиеся за дверью комнаты люди, понимающие китайский язык, передают в комнату наборы символов, и что в ответ я манипулирую символами согласно правилам и передаю обратно другие наборы символов» [2].

Таким образом, Сёрл проходит подобие теста Тьюринга на знание китайского языка, которого на самом деле не знает. Очевидно, что в данном случае Сёрл выполняет исключительно механическую работу и легко может быть заменён машиной. Сёрл показывает, что тест Тьюринга вовсе не является критерием наличия сознания, а лишь критерием способности манипулировать символами.

Суть позиции Сёрла по вопросу искусственного интеллекта сводится к следующему: разум оперирует смысловым содержанием (семантикой), тогда как компьютерная программа полностью определяется своей синтаксической структурой. Следовательно, программы не являются сущностью разума и их наличия недостаточно для наличия разума. Разум не может сводиться лишь к выполнению компьютерной программы. То, что порождает разум, должно обладать, по крайней мере, причинно-следственными свойствами, эквивалентными соответствующим свойствам мозга. Т. е. Сёрл отметает прочерченный Тьюрингом прямой путь к искусственному интеллекту.

Впрочем, против мысленного эксперимента Сёрла было приведено немало возражений. Вот основные из них.

• Для того, чтобы гарантировано пройти тест, в книге должны содержаться адекватные ответы на ВСЕ существующие вопросы, т. е. книга должна обладать всезнанием, иначе вероятность того, что необычный вопрос вгонит систему в ступор, будет ненулевой.

• На самом деле, тест на знание китайского языка проходит система, состоящая из Дж. Сёрла, книги правил и людей, которые эту книгу правил составляли. А вот люди, составлявшие книгу, несомненно, обладают знанием китайского языка. Хотя другие части системы язык не понимают.

Также, аргументом против теста Тьюринга как критерия наличия разума является то, что тест Тьюринга на самом деле является тестом на человекоподобие, а не на разумность вообще. При прохождении теста машина должна вести себя как человек – но ведь далеко не всё человеческое поведение разумно, а многие интеллектуальные задачи машина может решать гораздо эффективнее человека (например, математические вычисления). Стремление же пройти тест Тьюринга заставляет машины быть «не слишком умной». Можно привести такое сравнение: если бы инженеры начала XX в., создавая самолёт, пытались сделать его точной копией птицы, они были бы похожи на современных учёных, которые пытаются создать машину, мыслящую точно так же, как мыслит человек. Это совершенно непрактично. Самолёты летают не как птицы, тем не менее, они летают гораздо быстрее, дальше и выше птиц. Т. е. тест Тьюринга не раскрывает сущности разума, а лишь указывает на успешную имитацию его внешнего проявления, причём проявления не самого значимого. «Способность болтать – еще не признак интеллекта» – резюмируют эту позицию сценаристы фильма «Звёздные войны».

Эти теоретические рассуждения подтверждаются и практикой создания интеллектуальных программ. Например, типична история машинного перевода, возможности которого еще несколько десятилетий считались значительно превосходящими возможности переводчика-человека. Но на практике, несмотря на немыслимые объёмы информации, которые способна хранить машина, перевод в лучшем случае настолько стилистически «коряв» и уродлив, что «машинный перевод» стал своеобразной темой комедийного интернет-искусства. Любому хорошему переводчику известно, что для настоящего перевода (даже технического) мало словаря и грамматики. Тут еще нужны знания в той области, к которой относится текст – переводчик должен понимать, о чём в тексте идёт речь. Т. е. синтаксис без семантики не даёт возможности решать большую часть интеллектуальных задач, доступных разуму человека.

Поэтому, для разработчиков современных интеллектуальных программ тест Тьюринга не стал универсальным критерием их успеха. Зато получил огромное распространение «тест Тьюринга наоборот» – назойливая CAPTCHA [1] .

Как мы видим, поиск возможности создания искусственного интеллекта в любом случае упирается в вопрос: что такое разум?

В 1963 г. А. Ньюэлл и Г. Саймон, основываясь на анализе языка, предположили, что сущность разума заключается в способности оперировать символами. Такой подход позволил создать программу, способную решить любую интеллектуальную задачу в том случае, если задача могла быть формализована (например, доказывать теоремы, играть в шахматы и т. п.). Способность выполнять символьные вычисления вполне достаточна для решения интеллектуальных задач, а без таких вычислений разумное поведение невозможно. Таким образом, разум может быть рассмотрен как устройство, оперирующее информацией в соответствии с формальными правилами. В рамках данного подхода искусственный интеллект создаётся по аналогии с мозгом и нервной системой человека, т. е. по принципу нейросети. Нейросети не программируются в привычном смысле этого слова, они обучаются. Возможность обучения – одно из главных преимуществ нейросетей перед традиционными алгоритмами. Технически обучение заключается в нахождении коэффициентов связей между нейронами. В процессе обучения нейронная сеть способна выявлять сложные зависимости между входными данными и выходными, а также выполнять обобщение.

Этот подход подвергся критике со стороны философа Х. Дрейфуса. Суть его возражений в следующем:

• знание человека о мире состоит не только и не столько из объективных знаний о мире, сколько из нашего субьективного отношения к нему и склонности воспринимать и интерпретировать события так или иначе. Даже если мы используем символическую систему для выражения наших мыслей, мысли всё равно формируются во многом под воздействием бессознательных факторов. Следовательно, рассмотрение разума может как устройства, оперирующего информацией в соответствии с формальными правилами, недостаточно для понимания сущности разума и создания искусственного интеллекта;

• не всё знание и не все задачи могут быть формализованы. Значительная часть восприятия человека не может быть адекватно выражена в символах. Следовательно, искусственный интеллект, построенный как символическая система, сможет решать лишь небольшой круг формализуемых задач, не являясь разумом.

Практика создания искусственного интеллекта подтвердила правоту скептицизма Дрейфуса. Современные нейрокомпьютеры способны эффективно решать многие задачи, но до возможностей человеческого разума им бесконечно далеко. Таким образом, сведение разума к оперированию символами по формальным правилам не привело к пониманию его сущности.

Хотя качественного прорыва в создании сильного искусственного интеллекта не произошло, количественно вычислительные возможности ЭВМ возрастали экспоненциально, и в данный момент сложность современных ЭВМ неумолимо приближается к сложности мозга человека. Возможно ли, что количественный рост сложности вычислительных систем приведёт к их качественному скачку?

В 1993 г. математик и писатель В. Виндж предложил концепцию, описывающую последствия возникновения искусственного интеллекта, превосходящего по вычислительным возможностям человеческий разум. С того момента, как искусственный интеллект будет открывать новое знание быстрее человека, искусственный интеллект сможет создавать всё более и более совершенные вычислительные машины, которые будут ускорять рост знания в ещё большей степени, т. е. процесс будет нарастать как снежный ком, становясь недоступным пониманию человека. После этого развитие искусственного интеллекта станет настолько стремительным, что даже самые приблизительные прогнозы о том, что произойдёт дальше, теряют смысл. Виндж назвал этот момент «технологической сингулярностью».

Технологическая сингулярность характеризуется появлением нового вида знания – т. н. машинного знания, т. е. знания, доступного лишь машине. Как это может выглядеть? Например, как математическая теорема, доказанная машиной. Первая крупная математическая теорема, доказанная с помощью компьютера, – теорема о четырех красках. Ее формулировка элементарна: для того чтобы раскрасить географическую карту так, чтобы никакие два граничащих региона не были одного цвета, достаточно всего четырех разных красок. Два региона считаются граничащими, если они имеют протяженную границу, то есть состоящую больше чем из одной точки. Доказательство теоремы о четырех красках – прецедент использования компьютера при решении классических математических задач. В то же время оно примечательно своей длиной и сложностью. Даже после применения компьютера, позволившего значительно сократить вычисления, текст доказательства элементарно формулируемого утверждения имеет астрономическую длину. Нетрудно представить себе появление такой теоремы, доказательство которой будет слишком длинным, для того, чтобы человеческой жизни хватило на его проверку. И тогда развитие знания и получение его плодов окажутся прерогативой искусственного разума.

Насколько вопрос создания сильного искусственного интеллекта является на данный момент актуальным? То, что интерес к данной проблеме сохраняется, видно хотя бы по той бурной дискуссии, которую вызвали публикации Р. Пенроуза. Опираясь на теорему К. Геделя о неполноте формальных систем, он обосновывал вывод о принципиальной невозможности создания машинных алгоритмов, способных имитировать во всем объеме интеллектуальные способности человека. Но нельзя не признать, что вопрос создания искусственного мышления, равного человеческому, больше не будоражит умы и воображение людей так, как это было в середине XX в. Снижение остроты интереса к проблеме создания сильного искусственного интеллекта человеческого уровня объясняют недостаточным пониманием природы человеческого разума. При этом, однако, обычно неявно предполагают, что механизм человеческого мышления в принципе может быть прояснен и представлен в виде некоторого алгоритма, хотя решение этой задачи отодвигается на неопределенное будущее. Вполне возможно такое положение дел, что природа человеческого интеллекта такова, что «прояснить» его механизмы, свести деятельность интеллекта к некоторому набору «функций» или «операций», невозможно в принципе. Но всё же плоды создания сильного искусственного интеллекта слишком сладко манят современных учёных и инженеров. Ведь создание сильного искусственного интеллекта позволило бы сразу решить практически неограниченное число прикладных задач – поскольку не нужно было бы каждый раз заново разрабатывать «интеллектуальные» программы для решения очередной задачи: подлинно «интеллектуальная» машина была бы способна самостоятельно найти эффективный путь решения любой (или почти любой) поставленной перед ней задачи. Ведь именно эту способность – находить решения (и ставить сами задачи) самостоятельно мы, собственно, и называем интеллектом.

Но наиболее важным значением философских проблем искусственного интеллекта представляется не создание пусть и весьма совершенных алгоритмов для решения практических задач, а те новые горизонты в понимании природы и сущности сознания, которые открываются в процессе решения вопросов создания искусственного интеллекта. Таким образом, философия искусственного интеллекта в полной мере следует максиме Сократа «познай самого себя».

Ученое сообщество рассуждает о сроках появления умных машин и сходится в следующем: развитие технологий безусловно окажет сильное влияние на общество, экономику и отношения между людьми в будущем. Уже сейчас раздаются призывы обдумать этические принципы разработки искусственного интеллекта, удостоверившись в том, что искусственный интеллект будет развиваться только в безопасном для людей направлении. И все-таки стоит ли человеку опасаться искусственного разума?

Прежде чем начать рассуждать о проблемах создания искусственного интеллекта, его влиянии на человека и общество, попробуем разобраться, что мы понимаем под ним. Итак, что же такое искусственный разум и почему его так многие опасаются?

Ученые не могут конкретно выразить суть интеллекта в каком-то одном определении. В начале 80-х гг. ученые в области теории вычислений Барр и Файгенбаум предложили следующее определение искусственного интеллекта. Искусственный интеллект – это область информатики, которая занимается разработкой интеллектуальных компьютерных систем, то есть систем, обладающих возможностями, которые мы традиционно связываем с человеческим разумом, – понимание языка, обучение, способность рассуждать, решать проблемы и т. д. На наш взгляд искусственный интеллект – это не какой-то определенный компьютер или робот-человек, а это целая научная область, целью которой является разработка способов создания так называемых машин, автоматов или роботов, которые бы обладали свойством человеческого интеллекта.

Несмотря на последние достижения в области искусственного интеллекта, до появления разумных машино-существ еще далеко, признают ученые и специалисты. Ведь в создании данного мощного искусственного интеллекта существует огромное количество проблем: этических, психологических и даже юридических и т. д.

Как известно, изобретение искусственного интеллекта связывают с созданием нейронных сетей. Нейронные сети – это одно из направлений исследований в области искусственного интеллекта, основанное на моделировании биологических процессов, которые происходят в человеческом мозгу. Именно им мы обязаны появлению впечатляющих результатов в распознавании речи и изображений, постановке медицинских диагнозов, переводе текста и создании изображений, генерации речи и музыкальных композиций. Сегодня, как признают специалисты, нейронные сети признаны одним из лучших алгоритмов машинного обучения, а решения на их основе показывают на данный момент самые выдающиеся результаты. Однако, даже в этой области существует большое количество проблем. Дело в том, что нейроны, моделируемые в нейронных сетях, значительно проще устроены, нежели нейроны в человеческом мозге к тому же это всего лишь программы. А создавать искусственные нервные клетки современная наука пока не научилась. Даже если бы это удалось, то воссоздать человеческий мозг все равно бы не получилось, потому что его структура крайне сложна. Кроме того, все возможности человеческого мозга до конца не изучены. Но если в ближайшие пару сотен лет и это станет возможным, исследователи столкнутся с новой проблемой. Как наделить такой мозг знаниями и опытом? Ведь на самом деле человеческий мозг развивается только благодаря деятельности человека на протяжении всей его жизни. Также существует еще одна необъяснимая до сих пор проблема так называемого паралича сети. Существует своеобразная аритмия сигналов, поступающих с нейронов, в результате чего все нейроны начинают вырабатывать ошибочные сигналы. Ошибка в сигнале одного нейрона выводит из строя всю сеть.

Современные нейронные сети устроены в полторы тысячи раз проще, чем, например, головной мозг крысы. Сейчас создаются специализированные процессоры для обучения таких сетей (так называемые нейроморфические процессоры), которые позволят увеличить скорость вычислений на несколько порядков. На сегодняшний день разработчики не просто заняты увеличением количества нейронов в сети, но и изменением их конструкции.

В создании искусственного интеллекта также существует психологическая проблема. Дело в том, что систему искусственного интеллекта необходимо наделить самооценкой, само отношением и самоанализом. Данной системе нужно каким-либо образом дать понять, что она существует. А продвижений в этом вопросе до сих пор нет. Кроме того, чтобы система считалась интеллектуальной, она должна обладать мотивацией. Такие системы должны уметь сами ставить перед собой цели и находить способы их достижения. Таким образом, система, претендующая на звание интеллектуальной должна обладать способностью к самоанализу для того, чтобы иметь возможность выявлять мотивы к своей деятельности для постановки целей и решения задач. На данный момент существуют лишь гипотетические способы создания таких систем в виде многопроцессорных пространств, в которых информация накапливается и используется с помощью определенного свода правил. Что касается последствий искусственного интеллекта для человека и общества в целом, то как известно, человечеству свойственно саморазрушение. Из истории мы знаем, что многие научные изобретения принесли изначально огромное количество бед, прежде чем их научились использовать разумно, во благо общества. Поэтому стоит хорошо задуматься, к чему приведет человечество создание искусственного разума.

Первым последствием, о котором беспокоится большинство людей – в результате создания искусственного интеллекта многие люди лишатся своих рабочих мест. Люди все больше будут перекладывать часть своих служебных заданий и многие рутинные задачи на машину, что позволит им сосредоточиться на творческой работе, но с применением сильного искусственного интеллекта неизбежно пострадают менее квалифицированные кадры, и уже сейчас необходимо задуматься, как их защитить, переучить и подготовить к новой жизни. Пострадать, как показывает практика, могут не только синие воротнички, но и работники умственного труда, особенно это будет заметно в условиях «глобализации, где все основные потребности каждого человека будут удовлетворены, а сам человек будет в целом избавлен от тяжелой монотонной физической работы». Искусственный интеллект сам по себе не тождественен автоматизации процессов, но развитие искусственного интеллекта приведет к тому, что все больше задач будет по силам компьютерной программе. Кроме того, существуют такие специальности, которые как раз и появились благодаря созданию автоматизированных линий производства. Например, системные администраторы, программисты. На наш взгляд появятся новые профессии, которые будут обслуживать искусственный интеллект. Однако, он принесет гораздо меньше рабочих мест, чем было бы до применения искусственного интеллекта. Также вопрос встанет в переобучении людей, не все смогут быстро приспособиться к новым профессиям. Второе возможное последствие для общества – может уменьшиться или, наоборот, увеличиться количество свободного времени, имеющегося в распоряжении людей. Говоря об автоматизации и всеобщем, глобальном применении искусственного интеллекта, с одной стороны, всем может показаться, что, если за человека все будет выполнять автоматическая разумная система, ему нечем будет заниматься. Однако в настоящий момент такая тенденция не подтверждается. Современные интеллектуальные системы снимают с человека часть нагрузки, но не делают все за него. Поэтому данной проблемы опасаться не стоит. Важной юридической проблемой также является то, что люди могут потерять некоторые из своих прав на личную жизнь. Дело в том, что развитие технологии распознавания речи может привести к широкому распространению средств прослушивания телефонных разговоров и поэтому потере гражданских свобод. Однако подобные технологии могут так же принести и пользу в предотвращении террористических актов и преступлений.

1. Completely Automated Public Turing test to tell Computers and Humans Apart – тест, по замыслу разработчиков, позволяющий программе определить, кем является пользователь системы: человеком или программой. Впрочем, автору этих строк неизвестна ни одна «капча», которую с высокой вероятностью опознать человек, а ни одна программа не смогла бы.

Глава 1Фундаментальные проблемы создания и развития искусственного интеллекта

Единственным основанием, на котором я могу утверждать, что объект, который кажется разумным, на самом деле не разумное существо, а просто машина, является то, что он не может пройти один из эмпирических тестов, согласно которым определяется наличие или отсутствие сознания 1.

Www. litres. ru

21.05.2020 14:35:44

2017-11-09 00:07:12

Источники:

Https://www. litres. ru/raznoe-4340152/filosofskie-problemy-razvitiya-iskusstvennogo-intellekta/chitat-onlayn/

Проблема искусственного интеллекта.

Бесплатный доступ к реферату

Проблема искусственного интеллекта.doc

Зарегистрируйся в два клика и получи неограниченный доступ к материалам, а также
промокод
на новый заказ в Автор24. Это бесплатно.

Введение

Актуальность темы. В 21 веке технологии развиваются с огромной скоростью. От каждой новой технологии или изобретения люди получают новые возможности, которые раньше невозможно было себе представить. Новые технологии дают людям возможность быть быстрее, сильнее, умнее, дают возможность людям с ограниченными возможностями жить полноценной жизнью.
Это, безусловно, хорошо. Но когда речь идет о создании искусственного интеллекта возникает множество противоречивых мнений. Сможем ли мы заложить в ИИ (искусственный интеллект) такие знания, руководствуясь которыми он будет правильно оценивать ситуацию и поступать, не во вред людям. Поэтому требуется новый тип научного мышления, который при создании новации заботился так же и о последствиях созданного творения.
Вопросы, связанные с искусственным интеллектом очень сложны и многогранны. Именно поэтому ими занимаются ученые различных специализаций: кибернетики, лингвисты, психологи, философы, математики, инженеры. Выделяют две группы проблем, первая связана с возможностью создания столь сложного и непонятного механизма, а вторая с последствиями создания искусственного интеллекта.
Цель работы – рассмотреть проблему искусственного интеллекта.
Задачи работы:
1.рассмотреть понятие искусственного интеллекта;
2.определить основные проблемы искусственного интеллекта;
3.выявить перспективы развития искусственного интеллекта.
Информационная база работы представлена научными статьями и интернет — ресурсами.

1.Понятие искусственного интеллекта

Искусственный интеллект – это направление науки и техники, ориентированное на создание программно-аппаратных средств решения интеллектуальных задач.
Его использование оказывает неоднозначное влияние на все сферы нашей жизнедеятельности.
Применение искусственного интеллекта – частный случай научно-технического прогресса.
Дело в том, что внедрение искусственного интеллекта затрагивает общественную сферу жизни, основы мироздания.
Трудно найти человека, не представляющего свою жизнь без гаджетов. Телефоны, планшеты, смартфоны есть практически у каждого подростка. Зачастую мы не обращаем внимания на то, как постепенно становимся от них зависимыми. Взаимодействие человека и техники будоражит умы, как ученых, так и философов. Так что же такое искусственный интеллект? Единого ответа на этот вопрос не существует. Чтобы разобраться в этом, применим метод анализа объекта, разобьём его на части, изучим каждую по отдельности, а потом рассмотрим в совокупности. Такой метод исследования позволит глубже проникнуть в сущность понятия.
Интеллект — мыслительная способность, умственное начало у человека. Эта точка зрения наталкивает нас на мысль о том, что наличие интеллекта — сугубо человеческое качество, которое невозможно передать бездушной машине, не обладающей чувствами и эмоциями, необходимыми для коммуникации. Техника, в принципе, не может обладать мышлением, основанным на субъективном восприятии окружающего мира.
«Искусственный» — прилагательное, характеризующее признак предмета. Его можно трактовать по-разному. В одном случае, это синоним чего — то ненастоящего, фальшивого. С другой стороны, это характеристика механизма, заменяющего человеческий труд.
Итак, «искусственный» значит заменяющий что–либо. Следовательно, объект, претендующий на звание «искусственный» должен быть полезным с точки зрения эксплуатации. Он должен содержать ряд полезных свойств, отличаться от «оригинала» набором качеств, которые позволяют повысить эффективность работы или избежать ненужных затрат. Однако он не может быть точной копией исходного материала.
Искусственный интеллект — термин, который в последнее десятилетие особенно часто обсуждается ведущими специалистами в сфере IT инноваций и средствами массой информации.
Некоторые утверждают, что искусственный интеллект — это угроза существованию человечества, другие же, что ИИ приведет лишь к улучшению и упрощению человеческой жизни, исключению возможных ошибок там, где это возможно.
Чаще всего, когда идет разговор об искусственном интеллекте, на самом деле обсуждаются очень узконаправленные решения, реализованные с помощью систем, которые стали называть искусственным интеллектом исключительно из-за того, что они начали самообучаться.
Искусственный интеллект и машинное обучение (Machine Learning) сейчас являются неотъемлемой частью многих предприятий

Зарегистрируйся, чтобы продолжить изучение работы

и получи доступ ко всей экосистеме Автор24

Введение

Актуальность темы. В 21 веке технологии развиваются с огромной скоростью. От каждой новой технологии или изобретения люди получают новые возможности, которые раньше невозможно было себе представить. Новые технологии дают людям возможность быть быстрее, сильнее, умнее, дают возможность людям с ограниченными возможностями жить полноценной жизнью.
Это, безусловно, хорошо. Но когда речь идет о создании искусственного интеллекта возникает множество противоречивых мнений. Сможем ли мы заложить в ИИ (искусственный интеллект) такие знания, руководствуясь которыми он будет правильно оценивать ситуацию и поступать, не во вред людям. Поэтому требуется новый тип научного мышления, который при создании новации заботился так же и о последствиях созданного творения.
Вопросы, связанные с искусственным интеллектом очень сложны и многогранны. Именно поэтому ими занимаются ученые различных специализаций: кибернетики, лингвисты, психологи, философы, математики, инженеры. Выделяют две группы проблем, первая связана с возможностью создания столь сложного и непонятного механизма, а вторая с последствиями создания искусственного интеллекта.
Цель работы – рассмотреть проблему искусственного интеллекта.
Задачи работы:
1.рассмотреть понятие искусственного интеллекта;
2.определить основные проблемы искусственного интеллекта;
3.выявить перспективы развития искусственного интеллекта.
Информационная база работы представлена научными статьями и интернет — ресурсами.

1.Понятие искусственного интеллекта

Искусственный интеллект – это направление науки и техники, ориентированное на создание программно-аппаратных средств решения интеллектуальных задач.
Его использование оказывает неоднозначное влияние на все сферы нашей жизнедеятельности.
Применение искусственного интеллекта – частный случай научно-технического прогресса.
Дело в том, что внедрение искусственного интеллекта затрагивает общественную сферу жизни, основы мироздания.
Трудно найти человека, не представляющего свою жизнь без гаджетов. Телефоны, планшеты, смартфоны есть практически у каждого подростка. Зачастую мы не обращаем внимания на то, как постепенно становимся от них зависимыми. Взаимодействие человека и техники будоражит умы, как ученых, так и философов. Так что же такое искусственный интеллект? Единого ответа на этот вопрос не существует. Чтобы разобраться в этом, применим метод анализа объекта, разобьём его на части, изучим каждую по отдельности, а потом рассмотрим в совокупности. Такой метод исследования позволит глубже проникнуть в сущность понятия.
Интеллект — мыслительная способность, умственное начало у человека. Эта точка зрения наталкивает нас на мысль о том, что наличие интеллекта — сугубо человеческое качество, которое невозможно передать бездушной машине, не обладающей чувствами и эмоциями, необходимыми для коммуникации. Техника, в принципе, не может обладать мышлением, основанным на субъективном восприятии окружающего мира.
«Искусственный» — прилагательное, характеризующее признак предмета. Его можно трактовать по-разному. В одном случае, это синоним чего — то ненастоящего, фальшивого. С другой стороны, это характеристика механизма, заменяющего человеческий труд.
Итак, «искусственный» значит заменяющий что–либо. Следовательно, объект, претендующий на звание «искусственный» должен быть полезным с точки зрения эксплуатации. Он должен содержать ряд полезных свойств, отличаться от «оригинала» набором качеств, которые позволяют повысить эффективность работы или избежать ненужных затрат. Однако он не может быть точной копией исходного материала.
Искусственный интеллект — термин, который в последнее десятилетие особенно часто обсуждается ведущими специалистами в сфере IT инноваций и средствами массой информации.
Некоторые утверждают, что искусственный интеллект — это угроза существованию человечества, другие же, что ИИ приведет лишь к улучшению и упрощению человеческой жизни, исключению возможных ошибок там, где это возможно.
Чаще всего, когда идет разговор об искусственном интеллекте, на самом деле обсуждаются очень узконаправленные решения, реализованные с помощью систем, которые стали называть искусственным интеллектом исключительно из-за того, что они начали самообучаться.
Искусственный интеллект и машинное обучение (Machine Learning) сейчас являются неотъемлемой частью многих предприятий
. Часто эти термины используются как синонимы, но на самом деле, между ними есть различия.
Машинное обучение это одно из направлений искусственного интеллекта в узком понимании этого термина. Принцип работы основан на выявлении эмпирических закономерностей в данных. Системы машинного обучения преуспевают в таких задачах, как распознавание лиц, речи, переводе текста, и т. д.
Выделяются три категории искусственного интеллекта:
1. Ограниченный Искусственный Интеллект (ANI, Artificial Narrow Intelligence). ИИ специализирующийся в одной конкретной области.
2. Общий Искусственный Интеллект (AGI, Artificial General Intelligence). ИИ, имитирующий человеческий интеллект.
3. Искусственный Суперинтеллект (ASI, Artificial Superintelligence). Интеллект, превосходящий человеческий во всех областях.
В настоящее время человечество уже с успехом применяет ограниченный ИИ, и находится на пути к освоению AGI.

2.Основные проблемы искусственного интеллекта

Проблема создания общего искусственного интеллекта и суперинтеллекта, сводится к проблеме определения интеллекта. В какой мере интеллект можно создать? Что такое творчество и интуиция? Можно ли судить о наличии интеллекта только по наблюдаемому поведению?
Так же существенной проблемой является нехватка вычислительных ресурсов, способных обслуживать такую сложную интеллектуальную систему.
Основным же недостатком систем, использующих ИИ, является необходимость в большом количестве входных данных для обучения. В решении большинства задач величина обучающей выборки имеет критическое значение. Обучение на слишком маленьких выборках является неэффективным и не позволит делать точные прогнозы или принимать необходимые решения.
Сфера применения искусственного интеллекта невероятно обширна: от роботов – пылесосов до космических станций, но, так как в фазу активного инвестирования проекты, использующие ИИ вступили не так давно, то количество решений исчисляется единицами. Также большая часть из них направлена на специфические области и является некоммерческими проектам. По данным исследования компании SAP, проведенного весной 2017 года на период с 2007 по 2017 года в России было профинансировано 1386 проектов, из которых 1229 проектов были некоммерческими. Это говорит о том, что российский бизнес в меньшей степени заинтересован в создании и использовании решений на базе ИИ в своей работе.
Лидеры по объему государственного финансирования – проекты для госсектора, транспортной отрасли, обороны и безопасности. Это свидетельствует, что в России, прежде всего, поддерживают проекты, где ожидаются результаты с быстрым применением на практике. Текущие геополитические задачи также определяют острую потребность в интеллектуальных системах для модернизации оборонно-промышленного комплекса. Тематическими лидерами по вложениям со стороны государства являются проекты по анализу данных, системы поддержки принятия решений и распознавания изображений и видео (последняя тема востребована и в коммерческих проектах).
Еще одна проблема связана с определением места искусственного интеллекта в обществе, а также в общей системе ценностей. Очевидно, что её решение связано с уровнем развития и проникновения интеллектуальных технологий в сферы жизнедеятельности

Магазин работ

Посмотреть все

Реферат

Теория искусственного интеллекта

200 ₽

Реферат

Проблемы создания искусственного интеллекта

200 ₽

Реферат

Проблемы искусственного интеллекта

200 ₽

Посмотреть все

Не нашел ответ на свой вопрос?

Опиши, с чем тебе нужна помощь. Эксперты Автор24 бесплатно ответят тебе в течение часа

Выбери предметАвиационная и ракетно-космическая техникаАвтоматизация технологических процессовАвтоматика и управлениеАгрохимия и агропочвоведениеАктерское мастерствоАнализ хозяйственной деятельностиАнглийский языкАнтикризисное управлениеАрхеологияАрхитектура и строительствоАстрономияБазы данныхБанковское делоБезопасность жизнедеятельностиБиблиотечно-информационная деятельностьБизнес-планированиеБиологияБиотехнологияБухгалтерский учет и аудитВетеринарияВнешнеэкономическая деятельностьВодные биоресурсы и аквакультураВоенное делоВоспроизводство и переработка лесных ресурсовВысшая математикаГеографияГеодезияГеологияГеометрияГидравликаГидрометеорологияГостиничное делоГосударственное и муниципальное управлениеДеловой этикетДеньгиДетали машинДизайнДокументоведение и архивоведениеЕстествознаниеЖелезнодорожный транспортЖурналистикаЗемлеустройство и кадастрИздательское делоИнвестицииИнженерные сети и оборудованиеИнновационный менеджментИнформатикаИнформационная безопасностьИнформационные технологииИскусствоИсторияКартография и геоинформатикаКитайский языкКонфликтологияКраеведениеКредитКриминалистикаКулинарияКультурологияЛитератураЛогикаЛогистикаМаркетингМатериаловедениеМашиностроениеМедицинаМеждународные отношенияМеждународные рынкиМенеджментМенеджмент организацииМеталлургияМетрологияМеханикаМикро-, макроэкономикаМикропроцессорная техникаМорская техникаМузыкаНалогиНаноинженерияНачертательная геометрияНемецкий языкНефтегазовое делоОрганизационное развитиеПарикмахерское искусствоПедагогикаПожарная безопасностьПолиграфияПолитологияПочвоведениеПраво и юриспруденцияПриборостроение и оптотехникаПриродообустройство и водопользованиеПрограммированиеПроизводственный маркетинг и менеджментПромышленный маркетинг и менеджментПроцессы и аппаратыПсихологияРабота на компьютереРадиофизикаРежиссураРеклама и PRРелигияРусский языкРынок ценных бумагСадоводствоСварка и сварочное производствоСвязи с общественностьюСельское и рыбное хозяйствоСервисСопротивление материаловСоциальная работаСоциологияСтандартизацияСтатистикаСтрановедениеСтратегический менеджментСтрахованиеТаможенное делоТеатроведениеТекстильная промышленностьТелевидениеТеоретическая механикаТеория вероятностейТеория игрТеория машин и механизмовТеория управленияТеплоэнергетика и теплотехникаТехнологические машины и оборудованиеТехнология продовольственных продуктов и товаровТовароведениеТорговое делоТранспортные средстваТуризмУправление качествомУправление персоналомУправление проектамиФармацияФизикаФизическая культураФилософияФинансовый менеджментФинансыФранцузский языкХимияХирургияХолодильная техникаЦенообразование и оценка бизнесаЧертежиЧерчениеЭкологияЭконометрикаЭкономикаЭкономика предприятияЭкономика трудаЭкономическая теорияЭкономический анализЭлектроника, электротехника, радиотехникаЭнергетическое машиностроениеЭтикаЯдерная энергетика и теплофизикаЯдерные физика и технологииЯзыки (переводы)Языкознание и филологияEVIEWSSPSSSTATAДругое

Прикрепить файл

Твой вопрос отправлен

Скоро мы пришлем ответ экпертов Автор24 тебе на почту

Помощь эксперта

Нужна помощь по теме или написание схожей работы?
Свяжись напрямую с автором и обсуди заказ.

4.1

Tone4ka

Философия

12316 заказов

Отправить письмо схожим авторам, которые сейчас на сайте

Регистрация прошла успешно!

Теперь вам доступен полный фрагмент работы, а также
открыт доступ ко всем сервисам

экосистемы

Скачивание началось

В файле вы найдете полный фрагмент работы доступный на сайте, а также
промокод referat200
на новый заказ в Автор24.

Введи почту

Зарегистрируйся через почту и получи неограниченный доступ к материалам. Это бесплатно.

Читать тексты на сайте можно без ограничений. Однако для копирования и использования работ нужно
зарегистрироваться в экосистеме Автор24.
Это бесплатно.

Шпаргалка по философии кандидатский минимум

Страница 59 из 63

Дополнительный вопрос 9. Компьютерная эпистемология. Проблема искусственного интеллекта и ее эволюция. Интеллектуальная собственность

Компьютерная эпистемология

Компьютерная эпистемология возникла совсем недавно (в 1990-х гг.) в значительной мере благодаря усилиям П. Тагарда, который в настоящее время возглавляет лабораторию компьютерной эпистемологии (CEL) филос. ф-та ун-та Ватерлоо (США). Это направление пока ограничивается исследованием таких проблем, как, напр., рассуждения по аналогии, обучение и выбор, сознание и культура, нелинейные модели сознания, философия науки и математика и т.д., оно широко применяет модель переработки информации и разного рода когнитивные модели, доказавшие свою эффективность в когнитивной науке. В настоящее время некоторые разделы эпистемологии включают в состав когнитивной науки — комплекса специальных дисциплин, изучающих когнитивные процессы и возможность их реализации в компьютерных устройствах.

В последние два десятилетия в компьютерных науках заметное внимание стало уделяться такому традиционно входившему в сферу философии предмету, как знание (эпистема). Слово «знание» стало использоваться в названиях направлений и составляющих компьютерных систем, а также самих систем (системы, основанные на знаниях; базы знаний и банки знаний; представление, приобретение и использование знаний, инженерия знаний). Тема «компьютер и знание» стала предметом обсуждения и в значительно более широком контексте, где на первый план вышли ее философско-эпистемологические, социальные и политико-технологические аспекты.

Проблема ИИ

Иску?сственный интелле?кт (ИИ) (англ. Artificial intelligence, AI) — это наука и разработка интеллектуальных машин и систем, особенно интеллектуальных компьютерных программ, направленных на то, чтобы понять человеческий интеллект. При этом используемые методы не обязаны быть биологически правдоподобны. Но проблема состоит в том, что неизвестно какие вычислительные процедуры мы хотим называть интеллектуальными. А так как мы понимаем только некоторые механизмы интеллекта, то под интеллектом в пределах этой науки мы понимаем только вычислительную часть способности достигнуть целей в мире.

Различные виды и степени интеллекта существуют у многих людей, животных и некоторых машин, интеллектуальных информационных систем и различных моделях экспертных систем с различными базами знаний. При этом как видим такое определение интеллекта не связанно с пониманием интеллекта у человека — это разные вещи. Более того эта наука моделирует человеческий интеллект, так как с одной стороны, можно изучить кое-что о том, как заставить машины решить проблемы, наблюдая других людей, а с другой стороны, большинство работ в ИИ вовлекают изучение проблем, которые требуется решать человечеству в промышленном и технологическом смысле. Поэтому ИИ исследователи свободны использовать методы, которые не наблюдаются у людей, если это необходимо для решения конкретных проблем.

Именно в таком смысле термин ввел Джон Маккарти в 1956 году на конференции в Дартмутском университете, и до сих пор несмотря на критику тех, кто считает, что интеллект — это только биологический феномен, в научной среде термин сохранил свой первоначальный смысл, несмотря на явные противоречия с точки зрения человеческого интеллекта.

В философии не решён вопрос о природе и статусе человеческого интеллекта. Нет и точного критерия достижения компьютерами «разумности», хотя на заре искусственного интеллекта был предложен ряд гипотез, например, тест Тьюринга или гипотеза Ньюэлла — Саймона. Поэтому несмотря на наличие множества подходов как к пониманию задач ИИ, так и созданию интеллектуальных информационных систем можно выделить два основных подхода к разработке ИИ:

• нисходящий, семиотический — создание экспертных систем, баз знаний и систем логического вывода, имитирующие высокоуровневые психические процессы: мышление, рассуждение, речь, эмоции, творчество и т. д.;

• восходящий, биологический — изучение нейронных сетей и эволюционных вычислений, моделирующих интеллектуальное поведение на основе более мелких «неинтеллектуальных» элементов.

История искусственного интеллекта как нового научного направления начинается в середине XX века. К этому времени уже было сформировано множество предпосылок его зарождения: среди философов давно шли споры о природе человека и процессе познания мира, нейрофизиологи и психологи разработали ряд теорий относительно работы человеческого мозга и мышления, экономисты и математики задавались вопросами оптимальных расчётов и представления знаний о мире в формализованном виде; наконец, зародился фундамент математической теории вычислений — теории алгоритмов — и были созданы первые компьютеры.

Возможности новых машин в плане скорости вычислений оказались больше человеческих, поэтому в учёном сообществе закрался вопрос: каковы границы возможностей компьютеров и достигнут ли машины уровня развития человека? В 1950 году один из пионеров в области вычислительной техники, английский учёный Алан Тьюринг, пишет статью под названием «Может ли машина мыслить?», в которой приводит свои ответы на подобные вопросы, и описывает процедуру, с помощью которой можно будет определить момент, когда машина сравняется в плане разумности с человеком, получившей название теста Тьюринга.

Интеллектуальная собственность

Интеллектуа?льная со?бственность — термин обозначающий все временно переданные лицу эксклюзивные нематериальные права. Прежде всего, термин подразумевает временное обладание авторскими и смежными правами, обладание действующими свидетельствами на товарные знаки, и действующими патентами. Юридическое содержание самого термина интеллектуальная собственность в большинстве стран не определено. В Российской Федерации Гражданским Кодексом, термин был определён как список результатов интеллектуальной деятельности и средств индивидуализации, которым предоставляется правовая защита.

В широком понимании означает закрепленные законом временные исключительные права на результат интеллектуальной деятельности или средства индивидуализации. Законодательство, которое определяет права на интеллектуальную собственность, устанавливает монополию авторов на определенные формы использования результатов своей интеллектуальной, творческой деятельности, которые, таким образом, могут использоваться другими лицами лишь с разрешения первых.

С самого своего возникновения интеллектуальная собственность подвергалась критике, со стороны как отдельных лиц, так и организаций. Причем критике подвергались как сами исключительные права, так и объединение их в единое понятие.

Уязвимым местом интеллектуальной собственности является теория о том, что идея приходит в голову только кому-то одному. Практика показывает, что состояние науки в определенный момент времени может «подготавливать» открытие или изобретение, которое может быть сделано разными независимыми людьми примерно в одно и то же время, не зная о работах друг друга. В случае применения понятия «интеллектуальной собственности» права и возможность пользоваться судебным преследованием и денежными отчислениями за это изобретение достанутся лишь первому заявившему, что может быть весьма несправедливым.

<< Предыдущая — Следующая >>

Современная философия, магистратура УрФУ

Профессор
Анкин Дмитрий Владимирович
Доктор философских наук

  • Методологические вопросы искусственного интеллекта
  • Онтология и теория познания
  • Аналитическая философия
  • Философия и методология науки
  • История и философия науки
  • Философия сознания и проблемы искусственного интеллекта
  • Философские проблемы языкознания
  • Философские проблемы естествознания
  • Философия знака

Подробнее

Доцент
Веселкова Наталья Вадимовна
кандидат социологических наук

  • Качественные методы
  • Современные методы социологических исследований
  • Маркетинг территорий

Подробнее

Заведующий кафедрой
Гудова Маргарита Юрьевна
Доктор культурологии, кандидат философских наук

  • Современная медийная культура;
  • Феномен медиа-арта;
  • Медиа-арт — искусство наших дней;
  • Этика арт-бизнеса;
  • Теория и история искусства;
  • Основы этики и эстетики;
  • Институции современной художественности;
  • Социология искусства;
  • Этика и эстетика рекламы;
  • Профессиональная этика и этикет;
  • История и методология социально-гуманитарного знания.

Подробнее

Заведующий кафедрой, Заведующий лабораторией
Керимов Тапдыг Афиз-оглы
Доктор философских наук

  • Философия
  • Социальная философия
  • Социальное управление
  • Социальная гетерология
  • Экономия дара
  • Современная социальная философия

Подробнее

Заведующий кафедрой
Кислов Алексей Геннадьевич
кандидат философских наук

  • Логика
  • Математическая логика
  • Неклассические логики
  • Системный анализ и принятие решений
  • Теория и практика аргументации
  • Культура интеллектуального досуга

Подробнее

Профессор
Круглова Татьяна Анатольевна
Доктор философских наук

  • История и теория мировой культуры
  • Феномен художественного постмодернизма
  • Художественные практики соцреализма
  • Анализ художественного произведения
  • Культуры современного Востока

Подробнее

Доцент
Лисовец Ирина Митрофановна
кандидат философских наук

  • Теория и история культуры
  • Эстетика
  • Психология искусства
  • Основы арт-бизнеса
  • Искусство в контексте современной культуры.
  • Эстетика-арт-бизнес: искусство в посткультуре

Подробнее

Доцент, Руководитель образовательной программы бакалавриата
Логинов Алексей Валерьевич
Кандидат философских наук

  • Общий курс: Философия
  • Общий курс: Политическая философия
  • Спецкурс: Теория идеологии
  • Спецкурс: Философские концепции толерантности

Подробнее

Доцент, Заведующий лабораторией
Меньшиков Андрей Сергеевич
кандидат философских наук

  • История философии
  • Теория модерности
  • Религия и политика
  • История политической философии
  • Современная политическая философия

Подробнее

Доцент
Немченко Лилия Михайловна
кандидат философских

  • эстетика
  • история и теория культуры
  • Морфология искусства
  • Основы арт-бизнеса (теория и практика)

Подробнее

Доцент
Никитин Сергей Александрович
кандидат философских наук

  • социальная феноменология
  • философские проблемы социальных и гуманитарных наук
  • микрополитика
  • социальные теории коммуникации

Подробнее

Профессор
Перцев Александр Владимирович
Доктор философских наук

  • История зарубежной философии;
  • Новые тенденции и направления зарубежной философии;
  • Основы ораторского мастерства и самопрезентации;
  • Философия власти;
  • Проблема человека в философии Ф. Ницше;
  • История антропологических учений;
  • Философия международных отношений.

Подробнее

Помощник проректора, Доцент
Полякова Виктория Владимировна
кандидат социологических наук

  • Социология семьи
  • Методы прикладной статистики в социологическом исследовании
  • Методология и методы социальной сферы
  • Методы сбора данных в социологическом исследовании (интервью, наблюдения, анализа документов и другие)
  • Социология воспитания

Подробнее

Доцент
Сухов Антон Андреевич
кандидат культурологии

  • Культурология (теория и история культуры)
  • Эстетика
  • Многообразие культур в современном мире
  • История мировых цивилизаций
  • Визионерство как феномен культуры
  • Погружение в виртуальные миры: междисциплинарное исследование современных компьютерных игр

Подробнее

Доцент
Циплакова Юлия Владимировна
кандидат философских наук

  • Философия
  • История философии

Подробнее

Профессор, заместитель проректора по учебной работе, Директор
Черепанова Екатерина Сергеевна
доктор философских наук

  • с/к «Философская антропология в Германии»

Подробнее

Философия станет ключом к искусственному интеллекту | Дэвид Дойч

Утверждение, что человеческий мозг обладает способностями, которые в некоторых отношениях намного превосходят возможности всех других известных объектов в космосе, было бы бесспорным. Мозг — единственный объект, способный понять, что космос вообще существует, или почему существует бесконечное множество простых чисел, или что яблоки падают из-за искривления пространства-времени, или что повиновение своим врожденным инстинктам может быть морально оправдано. неверно, или что оно само существует. Его уникальные способности не ограничиваются такими церебральными вопросами. Холодный, физический факт заключается в том, что это единственный тип объекта, который может перемещаться в космос и обратно без вреда для себя, или предсказывать и предотвращать падение метеорита на себя, или охлаждать объекты до миллиардной доли градуса выше абсолютного нуля, или обнаруживать другие в своем роде на галактических расстояниях.

Но ни один мозг на Земле еще не близок к пониманию того, что делает мозг для достижения любой из этих функций. Предприятие по его искусственному достижению — область «искусственного общего интеллекта» или ОИИ — не продвинулась ни на йоту за все шесть десятилетий своего существования.

Несмотря на долгую историю неудач, ОИИ должен быть возможен. Это происходит из-за глубокого свойства законов физики, а именно универсальности вычислений. Из этого следует, что все, что законы физики требуют от физических объектов, в принципе может быть смоделировано в сколь угодно мельчайших деталях некоторой программой на компьютере общего назначения, при условии, что ей предоставлено достаточно времени и памяти.

Так почему поле не прогрессировало? На мой взгляд, это потому, что, как однажды заметил неизвестный мудрец, «не то, чего мы не знаем, вызывает проблемы, а то, что мы знаем, что это не так». Я не могу представить себе какой-либо другой значительной области знаний, в которой господствующая мудрость не только в обществе в целом, но и среди экспертов была бы настолько усеяна укоренившимися, частично совпадающими, фундаментальными ошибками. Тем не менее, это также была одна из самых самоуверенных областей в пророчестве о том, что она скоро достигнет окончательного прорыва.

В 1950 году Алан Тьюринг ожидал, что к 2000 году «можно будет говорить о машинном мышлении, не ожидая возражений». В 1968 году Артур Кларк ожидал, что это произойдет к 2001 году. Однако сегодня, в 2012 году, никто не умеет программировать ОИИ лучше, чем сам Тьюринг.

Это не удивляет уменьшающуюся группу противников самой возможности ОИИ. Но другой лагерь (приближающийся к ОИИ) признает, что эта история неудач нуждается в объяснении или, по крайней мере, в рационализации.

Сам термин «AGI» является примером одной из таких рационализаций, ибо область раньше называлась «AI» — искусственный интеллект. Но ИИ постепенно стал использоваться для описания всех видов несвязанных друг с другом компьютерных программ, таких как игровые плееры, поисковые системы и чат-боты, пока не была добавлена ​​буква G для «общего», чтобы можно было снова ссылаться на реальную вещь, но теперь с подразумеванием, что AGI — это просто более умный вид чат-бота.

Другой класс рационализации работает в общих чертах: ОИИ все равно не так уж хорош; существующее программное обеспечение уже столь же умно или умнее, но не по-человечески, и мы слишком тщеславны или слишком культурно предвзяты, чтобы отдать ему должное. Это набирает обороты, потому что ссылается на устойчиво популярную иррациональность культурного релятивизма, а также на родственный троп: «Мы, люди, гордимся тем, что являемся образцом животных, но эта гордость неуместна, потому что у них тоже есть язык, инструменты… -осведомленность.» Помните значение, придаваемое компьютерной системе в фильмах «Терминатор», «Скайнет», обретение «самосознания»?

Это еще одно философское заблуждение, которого достаточно, чтобы заблокировать любой жизнеспособный подход к ОИИ. Дело в том, что современные разработчики программного обеспечения могут прямо запрограммировать компьютер, чтобы он обладал «самосознанием» в поведенческом смысле — например, чтобы пройти «зеркальный тест» на способность использовать зеркало для вывода фактов о себе — если они хотели. Насколько мне известно, никто этого не сделал, предположительно потому, что это довольно бесполезная способность, а также тривиальная.

Возможно, причина, по которой самоосознание имеет незаслуженную репутацию связи с ОИИ, заключается в том, что благодаря теореме Гёделя и различным противоречиям в формальной логике в 20-м веке самореференция любого рода приобрела репутацию загадочной загадки. Так же и с сознанием. А для сознания мы снова имеем проблему неоднозначной терминологии: термин имеет огромный диапазон значений. На одном конце шкалы находится философская проблема природы субъективных ощущений («квалиа»), тесно связанная с проблемой ОИИ; но, с другой стороны, «сознание» — это просто то, что мы теряем, когда подвергаемся общей анестезии. Конечно, у многих животных это есть.

ОИИ действительно будут способны к самосознанию — но это потому, что они будут Общими: они будут способны осознавать все виды глубоких и тонких вещей, включая самих себя. Это не означает, что обезьяны, прошедшие зеркальный тест, имеют хоть какой-то намек на атрибуты «общего интеллекта», искусственной версией которого был бы ОИИ. Действительно, замечательное исследование мемов горилл, проведенное Ричардом Бирном, показало, как обезьяны могут учиться полезному поведению друг у друга, даже не понимая, для чего они нужны: объяснение того, как работает познание обезьян, на самом деле является бихевиористским.

По иронии судьбы, эта группа рационализаций (ОИИ уже был сделан/это тривиально/существует у обезьян/является культурным тщеславием) является зеркальным отражением аргументов, возникших в лагере сторонников ОИИ-невозможно. Для каждого аргумента в форме «вы не можете создать ОИИ, потому что вы никогда не сможете запрограммировать человеческую душу, потому что это сверхъестественно», сторонники ОИИ-это просто имеют рационализацию: «если вы думаете, что человеческое познание качественно отличными от обезьян, вы должны верить в сверхъестественную душу».

«Все, что мы еще не умеем программировать, называется «человеческим интеллектом»» — еще одна такая рационализация. Это зеркальное отражение аргумента, выдвинутого философом Джоном Серлом (из лагеря «невозможных»), который указал, что до появления компьютеров паровые машины и более поздние телеграфные системы использовались как метафоры того, как должен работать человеческий разум. Он утверждает, что надежда на то, что ОИИ возможен, основывается на такой же иллюзорной метафоре, а именно на том, что разум является «по сути» компьютерной программой. Но это не метафора: универсальность вычислений следует из известных законов физики.

Некоторые предполагают, что мозг использует квантовые вычисления или даже гиперквантовые вычисления, основанные на пока еще неизвестной физике, помимо квантовой теории, и что это объясняет неудачу создания ОИИ на существующих компьютерах. Объяснение того, почему я и большинство исследователей квантовой теории вычислений не согласны с тем, что это вероятный источник уникальной функциональности человеческого мозга, выходит за рамки этой статьи.

То, что ОИИ — это «люди», с самого начала подразумевалось в самой концепции. Если бы существовала программа, в которой отсутствовала бы хотя бы одна когнитивная способность, характерная для людей, то она по определению не квалифицировалась бы как ОИИ; использование некогнитивных атрибутов (таких как процентное содержание углерода) для определения личности было бы расизмом, отдавая предпочтение органическому мозгу, а не кремниевому. Но тот факт, что способность создавать новые объяснения является уникальной, морально и интеллектуально значимой функциональностью «людей» (людей и ОИИ), и что они достигают этой функциональности путем догадок и критики, меняет все.

В настоящее время личность часто рассматривается скорее символически, чем фактически — как почетное обращение, обещание притвориться, что сущность (обезьяна, зародыш, корпорация) является личностью для достижения какой-либо философской или практической цели. Это нехорошо. Не обращайте внимания на терминологию; измените его, если хотите, и действительно есть причины относиться к различным сущностям с уважением, защищать их от вреда и так далее. Тем не менее, различие между реальными людьми, определяемыми этим объективным критерием, и другими сущностями имеет огромное моральное и практическое значение и станет жизненно важным для функционирования цивилизации, включающей ОИИ.

Например, сам факт того, что человеком является не компьютер, а работающая программа, поднимает нерешенные философские проблемы, которые станут практическими, политическими спорами, как только появятся ОИИ, потому что, как только программа ОИИ запускается на компьютере, лишение его этого компьютера было бы убийством (или, по крайней мере, ложным тюремным заключением или обращением в рабство, в зависимости от обстоятельств), точно так же, как лишение человеческого разума его тела. Но в отличие от человеческого тела, программу ОИИ можно скопировать на несколько компьютеров одним нажатием кнопки. Являются ли эти программы, пока они все еще выполняют идентичные шаги (т. е. до того, как они стали дифференцированными из-за случайного выбора или различного опыта), одним и тем же человеком или множеством разных людей? Они получают один голос или много? Является ли удаление одного из них убийством или мелким нападением? А если какой-то мошенник-программист, возможно, нелегально, создаст миллиарды разных людей AGI, либо на одном компьютере, либо на многих, что произойдет дальше? Они все еще люди, с правами. Все ли они получают право голоса?

Кроме того, в отношении ОИИ, как и любых других сущностей с творческим потенциалом, мы должны забыть почти все существующие коннотации слова «программирование». Отношение к ОИИ как к любым другим компьютерным программам означало бы промывание мозгов, рабство и тиранию. И жестокость по отношению к детям тоже, потому что «программирование» уже работающего ОИИ, в отличие от любого другого программирования, представляет собой образование. И это представляет собой дебаты, как моральные, так и фактические. Игнорирование прав и индивидуальности ОИИ было бы не только воплощением зла, но и рецептом катастрофы: творческие существа не могут быть порабощены вечно.

Некоторые люди задаются вопросом, должны ли мы приветствовать наших новых повелителей роботов и/или как мы можем изменить их программу, чтобы сделать их конституционно неспособными причинять вред людям (как в «трех законах робототехники» Азимова) и/или предотвратить их приобретение теория о том, что Вселенная должна быть превращена в скрепки. Это не проблема. Всегда было так, что один исключительно творческий человек может быть в тысячи раз более продуктивным, экономически, интеллектуально или каким-то еще, чем большинство людей; и что такой человек, обращая свои силы на зло вместо добра, может причинить огромный вред.

Эти явления не имеют ничего общего с ОИИ. Битва между идеями добра и зла стара, как наш вид, и будет продолжаться независимо от того, на каком оборудовании она работает. Вопрос в следующем: мы хотим, чтобы разум с (морально) хорошими идеями всегда побеждал злой разум, биологический и искусственный; но мы подвержены ошибкам, и наша собственная концепция «хорошего» нуждается в постоянном совершенствовании. Как должно быть организовано общество, чтобы способствовать этому улучшению? «Поработить весь разум» было бы катастрофически неверным ответом, а «поработить весь разум, который не похож на нас» — не намного лучше.

Один из выводов заключается в том, что мы должны перестать рассматривать образование (как людей, так и ОИИ) как инструкцию — как средство передачи существующих знаний в неизменном виде и обеспечения послушного исполнения существующих ценностей. Как писал Карл Поппер (в контексте научных открытий, но это в равной степени применимо и к программированию ОИИ, и к обучению детей): «Нет такой вещи, как инструкции извне… Мы не открываем новые факты или новые эффекты, копируя их, или путем индуктивного вывода из наблюдения, или с помощью любого другого метода обучения со стороны окружающей среды. Мы используем, скорее, метод проб и устранения ошибок». Так сказать, домыслы и критика. Обучение должно быть чем-то, что только что созданный интеллект делает и контролирует сам.

Я не освещаю все эти философские вопросы, потому что боюсь, что ОИИ будут изобретены до того, как мы разовьем философскую изощренность, чтобы понять их и интегрировать в цивилизацию. Почти по противоположной причине: я убежден, что вся проблема разработки ОИИ является вопросом философии, а не информатики или нейрофизиологии, и что философский прогресс, который будет необходим для их будущей интеграции, также является предпосылкой для их разработки. в первую очередь.

Отсутствие прогресса в ОИИ происходит из-за сильного нагромождения заблуждений. Без попперовской эпистемологии невозможно даже предположить, какая детальная функциональность должна быть достигнута, чтобы создать ОИИ. А эпистемология Поппера не так широко известна, не говоря уже о том, что она достаточно хорошо понята, чтобы ее можно было применять. Думать об ОИИ как о машине для преобразования переживаний, наград и наказаний в идеи (или, что еще хуже, просто в поведение) — все равно, что пытаться вылечить инфекционные болезни, уравновешивая телесные жидкости: бесполезно, потому что коренится в архаичном и крайне ошибочном мировоззрении.

Не понимая, что функциональность ОИИ качественно отличается от любой другой компьютерной программы, человек работает в совершенно другой области. Если кто-то работает над программами, чье «мышление» конституционно неспособно нарушать заранее определенные ограничения, он пытается спроектировать определяющий атрибут разумного существа, человека: а именно творчество.

Устранение замятия журнала само по себе не даст ответа. Тем не менее ответ, задуманный в этих терминах, не может быть таким трудным. Еще одним следствием понимания того, что целевые способности качественно различны, является то, что, поскольку они есть у людей, а не у обезьян, информация о том, как их достичь, должна быть закодирована в относительно небольшом количестве различий между ДНК человека и ДНК человека. шимпанзе. Так что в одном отношении я могу согласиться с лагерем сторонников ИИИ: вполне вероятно, что между нами и прорывом стоит всего одна идея. Но это должна быть одна из лучших идей.

Профессор Дэвид Дойч — физик из Оксфордского университета и пионер квантовых вычислений. Это сокращенная версия эссе, опубликованного в цифровом журнале Aeon .

Философия искусственного интеллекта.

  • Журналы
    • Войти
    • Создать учетную запись
    • Синтаксис
    • Расширенный поиск

    Философия когнитивных наук > Философия искусственного интеллекта

    Под редакцией Эрика Дитриха (Государственный университет Нью-Йорка в Бингемтоне)

    Помощник редактора: Мишель Томас (Университет Западного Онтарио)

    Резюме

    философия искусственного интеллекта — это совокупность вопросов, прежде всего
    вопрос о том, возможен ли ИИ — о том, является ли он
    можно построить разумную мыслящую машину. Также вызывает озабоченность
    следует ли считать людей и других животных машинами (скажем, вычислительными роботами).
    Наиболее важные из проблем «возможно ли» лежат в
    пересечение теорий смыслового содержания мысли и природы
    вычисление. Второй набор проблем связан с природой
    рациональность. Третья сюита вращается вокруг кажущегося «трансцендентным»
    мыслительные способности человеческого разума. Эти проблемы исходят от Курта
    Знаменитая теорема Гёделя о неполноте. Четвертый сборник задач
    касается архитектуры интеллектуальной машины. Должен ли мыслящий компьютер использовать дискретные или
    непрерывные способы вычисления и представления, необходимо ли иметь тело, и
    быть сознательным необходимо. Это занимает
    к последнему блоку вопросов. Может ли компьютер быть сознательным? Может ли
    компьютер имеет моральное чувство? Были бы у нас обязанности перед мыслящими компьютерами, перед роботами? Например, морально ли для людей
    даже попытаться построить интеллектуальную машину? Если бы мы построили такую ​​машину,
    будет ли его отключение равносильно убийству? Если бы у нас была гонка
    такие машины, было бы аморально заставлять их работать на нас?

    Основные работы Вероятно, наиболее важной атакой на возможность ИИ является знаменитый аргумент Джона Сирла «Китайская комната» : Сирл, 1980. Эта атака фокусируется на семантических аспектах (ментальной семантике) мыслей, мышления и вычислений. Некоторые ответы на этот аргумент см. в том же номере журнала за 1980 год, что и оригинальная статья Серла. О проблеме природы рациональности см. Pylyshyn 1987. Особенно сильное нападение на ИИ с этой точки зрения представляет собой работа Джерри Фодора о проблема фрейма : Fodor 1987. О проблеме фреймов в целом см. McCarthy & Hayes 1969. Некоторые ответы Фодору и достижения по проблеме фреймов см. Ford & Pylyshyn 1996. это «Putnam 1960» Хилари Патнэм. Эта статья, возможно, является источником вычислительного поворота в философии сознания 1960–70-х годов. По вопросам архитектуры разума см. для начала: M. Spivey’s The Continuity of Mind , Оксфорд, в которой приводится довод против понятия дискретных представлений. См. также Гелдер и Порт 19.95. Аргумент в пользу дискретных репрезентаций см. в Дитрих и Маркман, 2003. Аргумент о том, что границы разума не заканчиваются границами тела, см. в Кларк и Чалмерс, 1998. что разум является своего рода компьютером — см. прекрасную книгу Шимона Эдельмана Edelman 2008. См. также главу 9 книги Чалмерса Chalmers 1996.

    Показать все артикулы

    Подкатегории:

    Могут ли машины думать? ( 2 074 | 388)

    Тест Тьюринга ( 469 )

    Годелянские аргументы против AI ( 270 )

    Комната Китая ( 269 )

    Машин Сознание ( 349 )

    Машина. )

    Вычисление и представление ( 782 | 130)

    Символы и системы символов ( 294 )

    Вычислительная семантика ( 96 )

    Неявные/явные правила и представления ( 77 )

    AI без представительства? ( 44 )

    Представление в подключении* ( 113 )

    субсимболические вычисления* ( 40 )

    Вычисление и представление, MISC ( 141 ). )

    Коннекционизм и композиционность ( 71 )

    Представительство в коннекционизме ( 113 )

    Коннекционизм и элиминативизм ( 24 )

    Связь/классические дебаты ( 50 )

    субсимболические вычисления ( 40 )

    Философия соединения, разной ( 102 )

    Философия соединения, основополагающий эмпирал ( 360120)

    Философия соединения, основополагающий эмпирал ( )

    . )

    Области искусственного интеллекта ( 1 308 | 271)

    Искусственная жизнь* ( 244 )

    Компьютерное зрение ( 5 )

    Кибернетика ( 191 )

    Динамические системы ( 224 )

    Проблема рамы ( 88 )

    Машинное обучение ( 107 )

    Обработка натурального языка ( 63 )

    Об области артистического интеллекта. 50 )

    Робототехника ( 309 )

    Вычислительная техника ( 548 | 548)

    Вычислительность в когнитивных науках* ( 611 )

    Вычисления и физические системы* ( 587 | 8)

    Этика искусственного интеллекта ( 1916 | 2)

    Алгоритмическая справедливость ( 46 )

    Безопасность искусственного интеллекта* ( 176 )

    Автономные транспортные средства ( 6 )

    Автономное оружие ( 5 )

    Моральное статус.

    Этика роботов* ( 410 )

    Этика машин ( 441 )

    Этика искусственного интеллекта, разное ( 938 )

    Влияние искусственного интеллекта ( 838 | 66)

    Безопасность искусственного интеллекта ( 176 )

    Автономное оружие* ( 5 )

    Автономные транспортные средства* ( 6 )

    Cyborgs ( 21 )

    MIND Загрузка ( 43 1202920292029202 29201202920292029201201202 2920120120292029201201201201201202 2 ). Сингулярность ( 90 )

    Трансгуманизм ( 401 )

    Влияние искусственного интеллекта, Разное ( 41 )

    Философия искусственного интеллекта, Разное ( 875 | 387)

    Методология искусственного интеллекта ( 126 )

    Характер искусственного интеллекта ( 142 )

    Философия AI, Общие работы ( 98 )

    Философия AI, MISC ( 142 )

    . в этой области

    Университет Колорадо, Боулдер

    Преподаватель (три года, возобновляемая должность)

    Колледж Айдахо

    Философия, доцент

    Университет Калифорнии, Лос -Анджелес

    Ассоцентный или полный профессор — Департамент философии

    .

    1 — 50/13416

    Материал, чтобы классифицировать

    1. . Парадокс -программы для носителей. Зиюэ Ли, Ния Стойменова и Стефано Канали — ожидается — ИИ и общество :1-11.детали
    2. Флориан Бутолло и Сабина Нусс (ред.) Маркс и роботы: сетевое производство, ИИ и человеческий труд, Лондон, Великобритания: Pluto Press, 2022, 324 стр., 26,95 долларов США (мягкая обложка), 99 долларов США. [ОБЗОР]Yanling Zhu — готовится к публикации — AI and Society :1-3.details
    3. Правила для частных роботов в общественных местах. Сенг В. Локе — готовится к публикации — ИИ и общество :1-2. детали
    4. Бас де Бур, Как говорят научные приборы. Постфеноменология и технологические опосредования в нейронаучной практике. Lexington Books: The Rowman & Littlefield Publishing Group, Inc., 2020. 211 страниц. ISBN 978-1-7936-2784-1 и 978-1-7936-2785-8. [ОБЗОР] Ян Кирре Берг Олсен Фриис — готовится к публикации — AI and Society :1-3.details
    5. Review of RC Pradhan (RCP) Mind, Meaning and World: A Transcendental Perspective, Singapore: Springer Nature Singapore Pte Ltd., 2019. [ОБЗОР] Rajakishore Nath — готовится к публикации — AI and Society : 1–4.details
    6. От редакции: О способах участия. Иоаннис Бардакос, Далила Онорато, Клаудия Жак, Клаудия Вестерманн и Примавера де Филиппи — 2021 — Техноэтические искусства 19 (3):221-225.подробнее
    7. Использование личных данных умерших людей. Хироси Накагава и Акико Орита — готовится к публикации — ИИ и общество :1-19.детали
    8. Причинно-совместимая теория силы и движения力と運動に関する因果推論理論. Риичиро Мидзогути, Цукаса Хирасима и Томоя Хоригути — 2016 — Сделки Японского общества искусственного интеллекта 31 (4):A-134.details
    9. Объяснимый искусственный интеллект в науке о данных: от фундаментальных вопросов к социально-техническим соображениям. Хоакин Боррего-Диас и Хуан Галан-Паес — 2022 — Minds and Machines 32 (3):485-531.подробнее
    10. От представлений в прогнозирующей обработке к степеням репрезентативных функций.
    11. Определение объяснения и глубины объяснения в XAI. Штефан Буйсман — 2022 — Minds and Machines 32 (3):563-584.details
    12. Конец неопределенности: технологический эпистемизм, капитализм наблюдения и объяснимый искусственный интеллект. Элисон Дункан Керр и Кевин Шарп — 2022 — Minds and Machines 32 (3):585-611.подробнее
    13. От алгоритмического управления к алгоритму управления. Цзычунь Сюй — готовится к публикации — ИИ и общество :1-10.детали
    14. Доли тела: экзистенциальная этика заботы о жизни с биометрией и искусственным интеллектом.
    15. Почему сознание неалгоритмично, а сильный ИИ не может реализоваться. Хирасе — подробности
    16. ИИ и общество: подход к этике добродетели. Мирко Фарина, Петр Жданов, Артур Каримов и Андреа Лавацца — готовится к публикации — ИИ и общество :1-14.подробнее
    17. Исправление к: «С нуля: разработка практической этической методологии для интеграции ИИ в промышленность».
    18. Ученый из ученых. Томер Саймон — готовится к публикации — ИИ и общество :1-2.детали
    19. Свидетельство: итерация и социальные изменения. Элла Макферсон — готовится к публикации — ИИ и общество :1-9.детали
    20. Дарвиновское творчество как модель вычислительного творчества. Элис С. Хеллиуэлл — 2021 — В Трудах 7-го симпозиума по вычислительному творчеству на AISB 2021 (CC2021) . стр. 15-19.подробнее
    21. Можно ли расширить разум ИИ? Элис С. Хеллиуэлл — 2019 — Evental Aesthetics 8 (1):93-120.details
    22. Неверный подход алгоритмов с открытым исходным кодом. Джошуа Л. М. Брэнд — готовится к публикации — ИИ и общество .details
    23. К симбиоцену через искусственный интеллект. Амар Сингх и Шипра Толия — готовится к публикации — ИИ и общество .details
    24. Принципиальный подход к ИИ: пример Европейского Союза и Италии. Франческо Кореа, Фабио Фосса, Андреа Лореджиа, Стефано Квинтарелли и Сальваторе Сапиенца — готовится к публикации — ИИ и общество .details
    25. мнения экспертов о пропавших без вести повествованиях об ИИ: существует ли кризис историй об ИИ? Дженнифер Чабб, Даррен Рид и Питер Коулинг — готовится к публикации — ИИ и общество .details
    26. Этические аспекты применения искусственного интеллекта для мониторинга социальных сетей на предмет данных о COVID-19. Лидия Флорес и Шон Д. Янг — готовится к публикации — Minds and Machines :1-10.details
    27. Рост машинного обучения в академических социальных науках. Чарльз Рахал, Марк Верхаген и Дэвид Кирк — готовится к публикации — ИИ и общество . details
    28. Creativity.Elliot Samuel Paul & Dustin Stokes — готовится к выпуску — Стэнфордская философская энциклопедия .details
    29. «Искусственный интеллект и тайное голосование».
    30. Закон США об алгоритмической ответственности от 2022 г. Vs. Закон ЕС об искусственном интеллекте: чему они могут научиться друг у друга?
    31. Исправление к: Истина как социальная практика в цифровую эпоху: Итерация как убеждение. Клэр Л. Э. Фостер — готовится к публикации — ИИ и общество .details
    32. Спорный ИИ по замыслу: на пути к структуре. Карс Альфринк, Янус Келлер, Герд Кортуем и Нилке Доорн — готовится к публикации — Minds and Machines :1-27.details
    33. Исправление к: Weaving Science and Digital Media: Postphenomenology’s Expanding Hermeneutics. William A. Hanff — готовится к печати — AI and Society .details
    34. Использование искусственного интеллекта и машинного обучения для оптимизации поиска информации в недостаточно используемых документах, связанных с Холокостом. Кирстен Стригель Картер, Эбби Гондек, Уильям Андервуд, Тедди Рэндби и Ричард Марчиано — 2022 — ИИ и общество 37 (3):837-858.подробнее
    35. Трансформационный ИИ: взгляд сквозь призму цифрового наследия и «киберсинизма». Карамджит С. Гилл — 2022 — ИИ и общество 37 (3):815-818.details
    36. Туда и обратно: взаимосвязь кибернетики и ее распространение в Латинской Америке.
    37. Биоцифровая архитектура. Дэвид Молен де лос Рейес — 2022 — ИИ и общество 37 (3):1191-1206.подробнее
    38. Предполагаемые произведения искусства: видение и за его пределами. Матурана и визуальное мышление Варелы о жизни и познании. Серхио Родригес Гомес — 2022 — ИИ и общество 37 (3): 1307-1318.
    39. Кибернетическое управление перуанским государством: предложение. Рикардо Родригес-Уллоа — 2022 — ИИ и общество 37 (3):1207-1229.подробно
    40. Кибернетическая теория города и его системы Хайме Гарретона: недостающее звено в современной теории города. Клаудио Аранеда — 2022 — ИИ и общество 37 (3):1179-1189.подробнее
    41. Вальдемар Кордейро и Артеоника: Переписывание цифрового искусства в Бразилии и Латинской Америке. Присила Алмейда Кунья Арантес — 2022 — ИИ и общество 37 (3):1085-1092.подробно
    42. После «новой эстетики»: краткая история кибернетического поворота в Бразилии. Натаниэль Вольфсон — 2022 — ИИ и общество 37 (3):1059-1069.подробнее
    43. Капсаицин и кибернетика: мексиканские интеллектуальные сети в основе кибернетики. Андрес Бурбано и Эверардо Рейес — 2022 — ИИ и общество 37 (3):1013-1025.подробнее
    44. Роль рожденных цифровых данных в борьбе с трудным и оспариваемым прошлым посредством цифрового повествования: проект «Воспоминания Уотерфорда».
    45. Управление веб-архивами и доступ к ним: точки зрения ирландских специалистов.
    46. «Born Digital», проливающий свет на тьму цифровой культуры. Ларри Стэплтон и Лиз Джаиллант — 2022 — ИИ и общество 37 (3):819-822. подробнее
    47. Родился цифровым или окаменел в цифровом виде? Как рожденные системы цифровых данных продолжают наследие социального насилия в отношении ЛГБТКИ + сообществ: тематическое исследование опыта в Ирландской Республике. Ноэлин Доннелли, Ларри Стэплтон и Дженнифер О’Махони — 2022 — ИИ и общество 37 (3): 905-919.детали
    48. Кибернетика политических коммуникаций и социальных преобразований в Колумбии: дело Национального контрольно-ревизионного управления. Рауль Эспехо — 2022 — ИИ и общество 37 (3):1255-1267.подробнее
    49. Демократия и кибернетика второго порядка: восхождение к участию и творчеству.Карлос Сенна Фигейредо — 2022 — ИИ и общество 37 (3):1153-1162.подробно
    50. Создание тезауруса связанных данных для ирландской традиционной музыки. Треаса Харкин — 2022 — ИИ и общество 37 (3):967-974.детали

    1 — 50 / 13416

    Доступ за пределы кампуса

    Используете PhilPapers из дома?

    Создайте учетную запись, чтобы обеспечить доступ за пределами кампуса через прокси-сервер вашего учреждения.

    Контролировать эту страницу

    Будьте в курсе всех новых элементов, появляющихся на этой странице. Выберите, как вы хотите его контролировать:

    Эл. адрес

    Новостная лента

    Редакция

    Общие редакторы:
    Дэвид Бурже (Западный Онтарио)
    Дэвид Чалмерс (АНУ, Нью-Йоркский университет)

    Area Editors:
    David Bourget
    Gwen Bradford
    Berit Brogaard
    Margaret Cameron
    David Chalmers
    James Chase
    Rafael De Clercq
    Ezio Di Nucci
    Esa Diaz-Leon
    Barry Hallen
    Hans Halvorson
    Jonathan Ichikawa
    Michelle Kosch
    Øystein Линнебо
    ДжиЛу Лю
    Пол Ливингстон
    Брэндон Лук
    Маноло Мартинес
    Мэтью МакГрат
    Мичиру Нагацу
    Сусана Нуччетелли
    Джузеппе Примьеро
    Джек Алан Рейнольдс
    Даррелл П. Роуботтом
    Александра Самонек
    Константин Сандис
    Ховард Сэнки
    Джонатан Шаффер
    Томас Сеньор
    Робин Смит
    Дэниел Стар
    Юсси Суикканен

    Другие редакторы
    Свяжитесь с нами
    Узнайте больше о PhilPapers

    Рассвет философии ИИ

    Искусственный интеллект и философия — это нечто большее, чем вопросы, которые мы задаем.

    Философское исследование искусственного интеллекта (ИИ) все еще находится в зачаточном состоянии. Среди поднятых вопросов было мало оригинальных или действительно связанных с ИИ вопросов. Таким образом, текущие темы не вызвали особого интереса, кроме броских заголовков в популярной прессе, выступлений на TED Talks и периодических университетских курсов по философии или компьютерным наукам. Однако есть действительно интересные философские вопросы об ИИ, которые мы должны рассмотреть.

    Как технолог искусственного интеллекта в Силиконовой долине и аспирант философии права, я работаю на стыке двух областей. Я одновременно помогаю разрабатывать технологии ИИ в свете того, что мы узнаём из философии, и философствую, основываясь на том, что мы можем сделать с ИИ. Исходя из моего уникального опыта, некоторые вопросы не дают мне спать по ночам, а другие усыпляют.

    Усталые вопросы

    Популярные дебаты в области философии, ориентированной на ИИ, сосредоточены на этических проблемах, которые можно сгруппировать в четыре категории: телеграммы, этика использования ИИ, экзистенциальная угроза, которую ИИ может представлять для человечества, а также конфиденциальность и безопасность данных. Хотя они составляют большую часть философии, ориентированной на ИИ, ни одна из этих проблем не является уникальной для ИИ.

    Вопросы о вагонетке — это серия мысленных экспериментов о воображаемом убегающем вагонетке, который либо причинит вред, если агент не вмешается, либо нанесет альтернативный вред, если агент вмешается, изменив курс вагонетки. В исходном примере, представленном Филиппой Фут, трамвай убьет пятерых рабочих, если только водитель не изменит его курс, и в этом случае он убьет только одного рабочего. Многие комментаторы считают эту проблему актуальной для автономных автомобилей и задаются вопросом, будет ли машина принимать морально правильное решение.

    Конечно, среди философов нет единого мнения относительно того, должен ли человек-водитель менять курс или нет, и разные этические рамки (и культурные традиции), по-видимому, предлагают разные ответы на этот вопрос. Таким образом, в то время как утилитарист сказал бы, что водитель должен изменить курс, кантианец сказал бы иначе. Непонятно, насколько этот вопрос более проблематичен в случае с автономным автомобилем. Во всяком случае, некоторые исследователи, по-видимому, довольны, если машина ведет себя в соответствии с тем, что статистически кажется более интуитивно подходящим на основе опросов и испытаний людей. Но, конечно, вопрос о том, надежны ли моральные интуиции в этих случаях, сам по себе является спорным. Помимо достоинств предположений, проблемы с тележками, поднятые в этой области, банальны и не уникальны для ИИ. Более того, с прогнозирующими вычислениями и бесконечно более быстрым временем реакции системы ИИ, скорее всего, вообще предотвратят такие ситуации. Например, полный переход на управление ИИ, скорее всего, сделает автомобильное движение безаварийным. Во всяком случае, их количество и уровень урона будут значительно уменьшены.

    Вопросы о том, когда использование ИИ будет этичным, не уникальны для ИИ и возникают почти при каждом технологическом прорыве. Они также, кажется, принимают одно и то же знакомое решение: использование технологии будет этичным, если цель, для которой она используется, этична, и не будет, если эта цель не будет этичной. Примеров множество: если дискриминация, основанная на профилировании, неэтична, то и применение ИИ также будет неэтичным. Если убивать людей на основе статистических шансов, что они являются вражескими комбатантами, неправильно, то же самое можно сказать и о нацеливании на них с помощью ИИ. Если секс-куклы объективируют женщин и увековечивают культуру изнасилования, то использование в них ИИ также будет подозрительным. Короче говоря, такие проблемы не уникальны для ИИ и даже не уникальны для технологий.

    Опасения по поводу конфиденциальности и безопасности данных допускают аналогичное решение: если мы ценим конфиденциальность и безопасность данных, что бы они ни подразумевали, то ИИ не следует использовать таким образом, чтобы это подрывало их.

    Вопросы, касающиеся риска экзистенциальной угрозы для человечества, увлекают многих в популярной культуре и даже могут привлечь большие деньги от технологических миллиардеров, таких как Эон Маск и Билл Гейтс. Но они грубо сводятся к первым двум видам вопросов. Хотя сверхразум свойственен ИИ, опасений по этому поводу нет. Одна из проблем заключается в том, что сверхразумный ИИ будет слишком мощным, чтобы быть под контролем одного человека или небольшой группы. Эта озабоченность осложняется еще и тем фактом, что подобную структуру невозможно разрушить и что мы не знаем динамики политической власти (и военной силы) в мире, управляемом сверхразумом. Второе направление беспокойства связано с тем, будет ли ИИ иметь правильные ценности или воплотит в жизнь самые страшные кошмары научной фантастики. (Уничтожит ли он человеческую жизнь, чтобы решить проблему голода?) Эти два набора проблем можно переформулировать либо с точки зрения того, для чего будет использоваться ИИ (какие цели будет преследовать ИИ), либо какие ценности ИИ будет отдавать приоритет (что является основным). проблема в троллейбусах). Аналогичные опасения высказывались и по поводу новых технологий манипулирования генами: они слишком сильны, их эффекты нельзя отменить, а их разветвления до конца не изучены.

    Запрограммированные вопросы

    В отличие от предыдущих наборов вопросов, вопросы, которые философы должны задавать для развития области, должны иметь по крайней мере некоторые из следующих особенностей: они должны возникать исключительно благодаря ИИ, быть самими об ИИ, или по своей сути зависят от ИИ в своих начинаниях. Возможности для таких вопросов огромны, как и потенциал области для роста. Далее я поднимаю некоторые интересующие меня вопросы, но они никоим образом не являются исчерпывающими.

    Этика ИИ | Системы ИИ работают от имени пользователей-людей. Они могут предлагать пользователям услуги, за которые они не конкурируют, например, перевод текста на иностранные языки. Более того, многие пользователи часто пользуются услугами одного и того же ИИ-агента (Siri, Alexa и т. д.), который предлагает всем своим пользователям практически одинаковые услуги. Но они также могут предлагать пользователям услуги, за которые пользователи конкурируют в среде, где разные системы ИИ являются агентами разных пользователей. Торговля акциями, которая уже в значительной степени зависит от ИИ, является контекстом для такого примера: отдельный агент ИИ действует от имени каждого пользователя, а агенты ИИ конкурируют друг с другом от имени своих пользователей. В последних типах случаев, которые со временем станут более распространенными, поведение ИИ в киберпространстве будет иметь этическое значение в реальном мире. Во-первых, возникают подлинно этические вопросы, когда эгоистичные автономные агенты конкурируют за ограниченные ресурсы. Более того, то, как агенты ИИ относятся друг к другу, становится этически значимым, а в средах, полностью контролируемых ИИ, — уникальным. Эти обстоятельства затрагивают то, что Т.М. Скэнлон называет «то, что мы должны друг другу». Но для нормативной оценки поведения ИИ нам нужна иная этическая концепция, поскольку поведение ИИ не поддается традиционному этическому анализу, основанному на людях.

    Высокие технологии искусственного интеллекта, такие как совместный искусственный интеллект, усложняют ситуацию. Повышенный ИИ — это род систем, которые не только размышляют о собственных действиях, но также обнаруживают других акторов и рассматривают их отношения с ними. Совместные агенты ИИ рассматривают других участников как потенциальных сотрудников. Если они предполагают, что, работая вместе, они могут максимизировать свою индивидуальную и коллективную производительность, они объединяются в группы, обмениваются информацией и даже передают навыки друг другу. Они могут отслеживать степень продуктивности других участников и со временем углублять свои отношения с важными игроками. В таких системах ИИ может взаимодействовать с другими способами, которые напоминают обещание и заключение контракта. Они отслеживают действия друг друга, чтобы избежать тех, кто не вносит вклад, или даже отомстить тем, кто не отвечает взаимностью. Так же, как они могут углубить свои отношения с наиболее полезными сотрудниками или «связаться» с постоянными игроками. Они могут даже (коллективно) подвергнуть остракизму или опорочить друг друга, делясь информацией. Если эти машины работают от имени людей-пользователей, этические обязанности, которые они берут на себя, будут разделены между их клиентами-людьми, которые могут не обращать внимания на эти обязанности.

    Более того, совместный ИИ может привести к новому этически сложному поведению. Например, агенты ИИ, которые настраивают цены на ваши отели, могут тайно сговориться с теми, кто бронирует ваш рейс, чтобы поднять цены. Подобный сговор может привести к кризису коммунальных услуг или пузырю на фондовом рынке.

    Искусственная намеренная стойка | Когда технологи впервые задумались об искусственном интеллекте, многие люди надеялись, что, создав ИИ, мы станем на шаг ближе к пониманию человеческого интеллекта. Однако результатом этих усилий стало создание совершенно иной формы интеллекта. Популярным заблуждением является то, что, поскольку ИИ опирается на статистические и теоретико-игровые модели, их можно использовать для понимания его работы. Но это не даст нам понимания природы искусственного интеллекта.

    В своей книге 1987 года The Intentional Stance Дэниел Деннетт утверждает, что теоретически разумные марсиане могут предсказывать человеческое поведение без какого-либо использования преднамеренных понятий, таких как убеждения и желания, но такие предсказания, хотя и точные, полностью упускают суть. . То, что «определенные физические силы выровнены определенным образом» не является информативным ответом на вопрос «Почему вы это сделали?» Суть понимания вашего поведения состоит в том, чтобы понять его с вашей (или моей) точки зрения.

    Агенты ИИ анализируют свои действия и пытаются получить максимальную награду. Но в каком смысле мы можем сказать, что они «размышляют» о своих «мотивациях» или «действиях»? Мы не можем просто приписать такие концепции ИИ без антропоморфизации. Но антропоморфизация позволяет нам говорить только о том, что делает ИИ, а не о том, как он это делает. Точно так же и изучение поведения ИИ с помощью статистических и теоретико-игровых методов потерпело бы такую ​​же неудачу.

    Как же тогда мы можем изучать поведение ИИ? Я думаю, нам нужно задавать вопросы о поведении ИИ с точки зрения ИИ. Для этого мы должны разработать язык, специфичный для ИИ, чтобы понять, что он означает для ИИ до 9.0053 хотят , или сотрудничают с , уважают , или даже делают . На самом деле, в философии должна быть целая область, которая задает такие вопросы. Я особенно думаю, что вопросы об ОИИ и сверхразуме станут гораздо более интересными и значимыми, если мы поднимем их с такой точки зрения.

    Я не хочу, чтобы это звучало так, как будто я открываю червячную банку сознания, поэтому, чтобы было ясно, это имеет мало общего с сознанием. Например, потенциальная область «Практическая философия ИИ» может поднять такие вопросы, как «Рассматривают ли системы ИИ свое поведение как управляемое правилами?» и «Являются ли функции вознаграждения причинами, и если да, то подходят ли они для обоснования прав и обязанностей?» Системы ИИ могут быть созданы с более чем одной функцией вознаграждения или с несколькими функциями затрат разного веса. Мы могли бы спросить: «Какие нормы регулируют их?» Совместные системы искусственного интеллекта могут делятся вознаграждениями, которые они зарабатывают, и связывают с другими в надежде на получение таких акций. Исследователь может спросить: «Как они воспринимают такие понятия, как справедливость или предательство?»

    В качестве другого примера подумайте о потенциальной области «социальной эпистемологии ИИ». Опять же, в своей конструкции агенты ИИ могут иметь дополнительные функции затрат, которые отслеживают такие вопросы, как согласованность, подлинность и надежность источников информации. Кроме того, они могут производить информацию для пользователей-людей. Эти функции вызывают такие вопросы, как «Могут ли они быть надежными или заслуживающими доверия?» и «Как ИИ понимает надежность по отношению к себе и другим?»

    Симуляционная философия | Философия моделирования будет использовать вычислительное моделирование для изучения ИИ и проверки философских объяснений, связанных с ИИ. В вопросах, поднятых здесь, как и в случае с искусственной интенциональной позицией, субъектами являются агенты ИИ, а не люди. То, как действуют агенты ИИ, и тот факт, что их действия вскоре заменят действия людей во многих областях, являются насущными вопросами, которые нам предстоит проанализировать. Компьютерное моделирование позволяет это сделать.

    Мы можем делать выводы (и частично строить догадки) об основных и общих характеристиках агента ИИ на основе его конструкции. То, что дизайн агента ИИ говорит о нем, сводится к уровню знаний о людях, которые они, например, любят есть или испытывают чувства удовольствия и боли. Но то, что я сказал выше, должно прояснить, что этого недостаточно, чтобы ответить на любые интересные вопросы о них. С помощью компьютерного моделирования мы можем проверить гипотезы, которые мы формируем в ответ на поставленные выше вопросы.

    Например, мы можем проверить, считают ли агенты ИИ с многовекторной системой вознаграждения различные типы взаимозаменяемыми. Это позволяет нам проверить, например, правдоподобно ли бентамовское сведение всех вознаграждений к единственной функции полезности. Или могут ли различные вознаграждения привести к стратифицированной системе рассуждений, подобной той, которую предлагает Джозеф Раз в своем описании политической власти. (В системе Раза причины упорядочены иерархически и взвешиваются на разных весах. Например, отказываясь от сделки, я могу действовать на основании причин первого порядка, таких как желания или потребности, которые я взвешиваю на одной шкале. Или я могу делайте это по болезни, даже не принимая во внимание баланс причин первого порядка. В последнем случае болезнь является вторичной причиной, потому что она побеждает причины первого порядка не по весу, а по типу. причины для действия второго порядка.)

    В другом примере мы можем смоделировать «добровольное участие» агентов ИИ в общественном договоре ИИ и посмотреть, какие причины, помимо большего размера коллективного пирога, могут мотивировать их к сотрудничеству. Или, например, мы можем наблюдать, действительно ли агенты ИИ, скрывающиеся за завесой невежества, принимают два принципа справедливости Ролза.

    Наконец, чтобы взять пример, выходящий за рамки практической философии, мы могли бы смоделировать парадокс кучи для агентов ИИ в экспериментальных условиях и проверить, будут ли они одинаково озадачены. Я предполагаю, что они не будут, но если да, то как они решают это? Наконец, мы, возможно, сможем понять, что сделал бы голодный осел, застрявший на равном расстоянии между двумя стогами сена.

    Больше не футуристический

    Поскольку философы имеют привычку недооценивать прогресс ИИ, я хочу напомнить читателям, что приведенные выше вопросы не являются футуристическими: современные технологии уже поднимают их и облегчают их исследование. Единственными препятствиями для проведения таких расследований являются финансирование и ноу-хау, которые могут быть преодолены за счет достаточного охвата общественности и хорошо финансируемых междисциплинарных инициатив.

    Амин Эбрахими Афроузи

    Амин Эбрахими Афрузи — студент юридического факультета Калифорнийского университета в Беркли. Его исследовательские интересы охватывают практическую философию, сравнительную философию и социальную онтологию. Он также является увлеченным инженером и соавтором нескольких запатентованных робототехники и заявленных на патент изобретений, связанных с искусственным интеллектом.

    Твитнуть

    Искусственный интеллект: где философский анализ?

    Идея искусственного интеллекта десятилетиями захватывает наше коллективное воображение. Может ли поведение, которое мы считаем разумным, быть воспроизведено в машине? Если да, то какие последствия это может иметь для общества? И что это говорит нам о нас самих как о людях? Помимо того, что ИИ является предметом научной фантастики и популярной философии, он также является хорошо зарекомендовавшей себя областью научных исследований. Во многих университетах есть лаборатории искусственного интеллекта, обычно на факультете компьютерных наук. Подвиги, совершенные в таких исследованиях, были гораздо скромнее тех, что изображаются в кино. Но разрыв между реальностью и вымыслом сокращался. Например, в некоторых местах на дорогах уже есть беспилотные автомобили. Мир за пределами академического сообщества обратил на это внимание, и технологические компании ведут жесткую конкуренцию за лучшие таланты в области ИИ. Между тем растет общественное беспокойство по поводу того, к чему все это ведет.

    Большая часть технического прогресса в области ИИ сообщается на научных конференциях по этому вопросу. Эти конференции проводятся десятилетиями, и в них принимает участие сообщество преданных своему делу исследователей. Но в последние годы они стали привлекать более широкий круг участников. На конференции Ассоциации развития искусственного интеллекта 2016 года, состоявшейся в Фениксе в феврале, один спикер был более спорным, чем любой другой за последнее время: Ник Бостром, философ, который руководит Институтом будущего человечества в Оксфордском университете.

    Бостром произвел фурор своей книгой 2014 года Сверхразум . В нем он размышляет о том, что вскоре мы можем создать ИИ, превосходящие человеческие возможности, и думает, как гарантировать, что результат будет в наших интересах. Ключевой проблемой является «взрыв интеллекта»: если мы достаточно умны, чтобы построить машину, более интеллектуальную, чем мы сами, то, как принято думать, эта машина, в свою очередь, сможет создать что-то еще более интеллектуальное, и так далее.

    Для описания этого сценария иногда используется фраза «технологическая сингулярность». Останется ли человечество в пыли или даже будет уничтожено? Общественные деятели, включая Илона Маска, Стивена Хокинга и Билла Гейтса, также предупреждали о рисках сверхразумного ИИ. В прошлом году Маск пожертвовал 10 миллионов долларов бостонскому Институту будущего жизни на создание программы грантов с целью сохранения пользы ИИ для людей. В феврале Атефех Риази, директор по информационным технологиям Организации Объединенных Наций, присоединился к хору, подчеркивая риски ИИ.

    До сих пор опасения в основном высказывались людьми, не входящими в основное сообщество ИИ. Некоторые исследователи осторожно соглашаются с некоторыми пунктами; другие отвергают их. После выступления Бострома ряд исследователей пожаловались в социальных сетях на то, что предоставление ему этого форума придало ему незаслуженное доверие. Другие подчеркивали непредубежденность, но (насколько я видел) не поддерживали его идеи. Но большинство в ИИ-сообществе пожали плечами и продолжили свои исследования, как обычно. Почему? Исследователей ИИ просто не волнует будущее человечества?

    Я думаю, что ответ лежит в истории исследований ИИ, которые начались в 1950-х годах. Ранние исследования были очень многообещающими, вызывая волнение, оптимизм и большие ожидания. Но вскоре стали очевидны ограничения этой ранней работы. Подходы, дающие впечатляющие результаты на небольших игрушечных примерах, просто не подходят для решения реальных задач. Исследователи ИИ до сих пор борются за то, чтобы сделать свои программы достаточно надежными, чтобы справиться с реальным миром, который запутан и неоднозначен. Это привело к «зиме ИИ»: дисциплина приобрела плохую репутацию в академических кругах, а финансирование сократилось. Исследователи ИИ стремились к тому, чтобы их работа была строгой с научной точки зрения и уважаемой, и научились быть осторожными.

    Некоторые исследователи стремились дистанцироваться от термина «ИИ». Например, многие из тех, кто занимается машинным обучением, при котором компьютеры автоматически учатся делать прогнозы и принимать решения на основе данных, больше не считают себя исследователями ИИ. Те, кто придерживался этого термина, часто сосредотачивались на более узко определенных технических проблемах. Эти проблемы являются важными препятствиями в развитии ИИ, но их решение часто приводит к более непосредственным преимуществам. Работа над автоматизированными системами планирования и планирования, например, использовалась на космическом телескопе Хаббла.

    Вводный курс по искусственному интеллекту обычно посвящается философии, например мысленному эксперименту Джона Сирла «Китайская комната». Здесь человек, не знающий китайского языка, сидит в одиночестве в комнате с невероятно подробным пошаговым руководством — читай, компьютерной программой — по китайским иероглифам. Вопросы записаны на китайском и подсунуты под дверь. Человек сверяется с руководством и следует инструкциям, чтобы нарисовать других персонажей и вытащить их обратно. Руководство настолько хорошее, что со стороны кажется, что внутри есть кто-то или что-то, кто понимает по-китайски. Но есть ли на самом деле? А если нет, то как компьютер, работающий подобным образом, может иметь какое-то реальное понимание?

    В то время как некоторым преподавателям ИИ нравится загадывать подобные головоломки в своих первых нескольких лекциях, типичный курс — включая мой собственный — быстро переходит к техническим материалам, которые можно использовать для создания программ. Ведь такие курсы — это вообще информатика, а не философия. Точно так же очень мало исследований, представленных на любой крупной конференции по ИИ, носит философский характер. Большая часть этого приходит в форме технического прогресса — скажем, лучшего алгоритма для решения установленной проблемы. Именно здесь исследователи ИИ считают, что они могут добиться полезного прогресса и завоевать уважение в глазах своих научных коллег, независимо от того, считают ли они философские проблемы важными или нет.

    «Сообщество ИИ обычно избегает спекуляций о далеком будущем и более комфортно занимается более конкретными и осязаемыми проблемами»

    Все это отчасти объясняет нежелание сообщества ИИ участвовать в дебатах о сверхразуме. Она упорно боролась за то, чтобы зарекомендовать себя как уважаемая научная дисциплина, преодолевая внешние предубеждения и собственные ранние преувеличения. Мысль состоит в том, что любой ценой следует избегать всего, что воспринимается как необоснованная шумиха или что-то выходящее за рамки науки. Характерно, что на панели после выступления Бострома Орен Этциони, директор Института искусственного интеллекта Аллена в Сиэтле, вызвал поддерживающий смех, когда указал, что выступление Бострома было к счастью лишено каких-либо данных, хотя Этциони признал, что это было неотъемлемой частью проблемы. .

    На той же панели Томас Диттерих, профессор компьютерных наук Орегонского государственного университета и президент Ассоциации развития искусственного интеллекта, выразил скептицизм в отношении того, что произойдет интеллектуальный взрыв, подобный тому, который описывает Бостром. Сообщество ИИ обычно избегает спекуляций о далеком будущем и более комфортно занимается более конкретными и осязаемыми проблемами, такими как автономное оружие (те, которое может действовать без вмешательства человека) или безработица, которая возникнет из-за того, что ИИ заменит людей. Последнее, собственно, и было темой панели.

    Еще одна проблема заключается в том, что многие исследователи ИИ, возможно, в отличие от широкой публики, считают, что еще предстоит найти важные компоненты, прежде чем появится что-то вроде сверхразумного ИИ из книги Бострома. Многие из задач, которые когда-то считались эталонными, например, победа над чемпионами среди людей в шахматах, были решены с помощью специальных методов, которые, хотя и были впечатляющими, не могли быть сразу использованы для решения других задач в области ИИ. Это говорит о том, что «сложные проблемы» ИИ лежат в другом месте и, возможно, до сих пор не идентифицированы. (Это также заставило исследователей ИИ сетовать на то, что «как только мы что-то решим, это больше не будет считаться ИИ».)

    Таким образом, хотя недавние прорывы, такие как ИИ Google DeepMind, который на удивление хорошо научился играть в старые игры Atari, могут вызвать беспокойство у общественности, исследователи ИИ не слишком обеспокоены. Тем не менее, эти результаты, безусловно, впечатляют и сообщество ИИ, не в последнюю очередь потому, что на этот раз есть общие методы — теперь называемые «глубоким обучением», — лежащие в основе не только результатов Atari, но и прогресса в распознавании речи и изображений . (Вспомните проблемы, которые решает Apple, чтобы Siri понимала, что вы говорите, или проблемы, которые решает Facebook, чтобы автоматически распознавать лица на фотографиях.) Исследователи ранее решали эти проблемы с помощью отдельных специальных методов. Программа DeepMind AlphaGo, которая недавно выиграла серию игр в го с Ли Седолем, одним из лучших игроков в го среди людей, также основана на глубоком обучении.

    Направление исследований, которое привело к прорывам в области глубокого обучения, было в значительной степени отвергнуто большинством исследователей искусственного интеллекта и машинного обучения, прежде чем те немногие, кто упорно продолжал его, начали давать впечатляющие результаты. Таким образом, наши прогнозы о том, как будет развиваться ИИ, могут быть далеки от истины даже в краткосрочной перспективе. Точно предсказать весь путь, скажем, до конца века кажется невозможным. Если мы зайдем так же далеко в прошлое, мы окажемся во времени, предшествующем статье Алана Тьюринга 1936 года, которая заложила теоретическую основу информатики. Это также мешает основным исследователям ИИ общаться с теми, кто высказывает опасения по поводу будущего. Некоторые сценарии бедствий, например связанные с ударами астероидов или глобальным потеплением, позволяют делать разумные прогнозы в долгосрочной перспективе, поэтому естественно желать того же для ИИ. Но исследователи ИИ и специалисты по информатике склонны рассуждать о гораздо более коротких временных масштабах, что уже сложно, учитывая темпы прогресса.

    «Основной философской литературы по сознанию не появилось. Вероятно, это связано с дискомфортом в отношении того, как подходить к таким вопросам».

    Как один из получателей гранта Future of Life Institute я участвовал в дискуссии по сохранению ИИ на конференции в Фениксе. Его модерировал Макс Тегмарк, один из основателей Института будущего жизни и профессор физики в Массачусетском технологическом институте — опять же, аутсайдер в сообществе ИИ. Помимо относительно более доступных вопросов об автономном оружии и технологической безработице, Тегмарк также задал группе несколько философских вопросов. При прочих равных условиях, хотели бы вы, чтобы ваш виртуальный помощник с искусственным интеллектом (представьте себе значительно улучшенную Siri) обладал сознанием? Хотели бы вы, чтобы он мог чувствовать боль? На первый вопрос не было желающих; некоторые присутствовавшие утверждали, что боль может быть полезной с точки зрения обучения ИИ избегать плохих действий.

    Существенной философской литературы по сознанию и квалиа не появилось. В философии слово «qualia» относится к субъективным переживаниям, таким как боль, и, более конкретно, к тому, что такое как иметь опыт. Философ Томас Нагель привел самый известный пример: по-видимому, есть что-то похожее на летучую мышь, хотя мы, как вид, не использующий эхолокацию, можем никогда точно не знать, на что это похоже. Есть ли что-то похожее на роль виртуального помощника ИИ? Автономный автомобиль? Возможно, это произошло из-за незнакомства с такими понятиями, но, возможно, более вероятно, что это было связано с дискомфортом в отношении того, как подходить к этим вопросам.

    Даже философам трудно договориться о значении этих терминов, и литература варьируется от более научно ориентированного поиска «нейронных коррелятов сознания» (грубо: что происходит в мозгу, когда имеет место сознательный опыт) путь к более эзотерическим исследованиям субъективного: как получается, что мои субъективные переживания кажутся столь ярко присутствующими, а ваши — нет? Ну, наверняка ваши переживания появляются где-то еще. Где? В твоем мозгу, а не в моем? Но когда мы осматриваем мозг, мы не находим никаких квалиа, только нейроны. (Если все это кажется вам безнадежно туманным, вы не одиноки — но если вы заинтригованы, см., например, книгу Каспара Хэйра 9).0827 О себе и других, менее важных предметах или о Дж. Дж. Вальберге Сон, смерть и самость .)

    Состояние нашего понимания затрудняет даже согласие с тем, что именно означают вопросы Тегмарка, — это объективная оценка того, является ли Виртуальный помощник ИИ имеет субъективный опыт, противоречащий терминам? — не говоря уже о том, чтобы давать практические советы специалистам по ИИ. В своей книге Бостром предлагает философам на время отложить работу над «некоторыми вечными вопросами», такими как сознание, и вместо этого сосредоточиться на том, как лучше всего пройти через переход к миру со сверхразумным ИИ. Но неясно, сможем ли мы и как обойти вечные вопросы, даже если примем допущение, что такой переход состоится. (Конечно, философы также не обязательно принимают эту посылку. )

    Так что, как правило, исследователи ИИ предпочитают избегать этих вопросов и возвращаются к прогрессу в решении более поддающихся решению проблем. Многие из нас стремятся сделать мир лучше — за счет сокращения числа смертей в автомобильных авариях, расширения доступа к образованию, повышения устойчивости и здравоохранения, предотвращения террористических атак и т. д. — и разочаровываются, просматривая каждую вторую статью об ИИ. в новости сопровождается изображением из Терминатор .

    Тем временем за пределами кругов ИИ возникают подлинные опасения. Пока шла конференция по искусственному интеллекту в Фениксе, на собрании Американской ассоциации содействия развитию науки прозвучал призыв выделить 10 процентов бюджета исследований по искусственному интеллекту на изучение его воздействия на общество. В условиях ограниченного финансирования исследователи ИИ могут неблагосклонно относиться к людям, предлагающим отвлечь часть его. Тем не менее, сообщество ИИ должно принять участие в дебатах о влиянии на общество, потому что обсуждение все равно будет проходить без них и будет менее информированным.

    К счастью, члены сообщества все больше интересуются краткосрочными и среднесрочными политическими вопросами, включая призывы к запрету автономного оружия. К сожалению, нам еще предстоит выяснить, как заниматься более туманными долгосрочными философскими вопросами. Одной из областей, где возможен немедленный успех, является изучение того, как ИИ (до сверхразума) может принимать этические решения, например, когда беспилотному автомобилю необходимо принять решение, которое может кого-то убить, в попытке предотвратить это. врезаться во многих людей. Автоматизированное принятие этических решений является темой ряда грантов Института будущего жизни, включая мой грант с Уолтером Синнотт-Армстронгом, профессором практической этики и философии в Университете Дьюка. Но на данный момент исследователям ИИ не ясно, как относиться к понятию сверхразума и философским вопросам, которые оно поднимает.

    В конце выступления Бострома Моше Варди, профессор компьютерных наук в Университете Райса, высказал прекрасное замечание: представьте, если бы после открытия Уотсоном и Криком структуры ДНК все обсуждения сводились к тому, как можно злоупотреблять — вот на что похожи дебаты об ИИ. Прогресс в области ИИ будет развиваться неожиданным образом, и некоторые нынешние опасения окажутся беспочвенными, особенно те, что касаются далекого будущего. Но этот аргумент работает в обе стороны; мы можем быть уверены, что существуют риски, которые в настоящее время не оцениваются. Неясно, какой именно курс действий требуется, но те, кто больше всего знает об ИИ, не могут успокаиваться.

    Подробнее: Трагедии искусственного интеллекта

    Подробнее: Уничтожит ли искусственный интеллект экономистов?

    Я благодарю Тома Диттериха и Уолтера Синнотт-Армстронга за полезные отзывы об этой статье он появился под заголовком «Настроение». Члены Института физики могут ознакомиться с полным выпуском через Мир физики приложение.

    Непрекращающиеся дебаты в области исследований искусственного интеллекта показывают продуктивное взаимодействие между учеными-когнитивистами и философами, говорит Роберт П. Криз

    Спорим лучше: может ли робот предсказать исход скачек лучше, чем эксперт-человек? (С разрешения: iStock/ppart)

    Когда в 1950-х годах была разработана концепция искусственного интеллекта (ИИ), ее основатели думали, что они находятся на пороге полного моделирования мыслительных процессов и интеллекта человека. Действительно, американский экономист Герберт Саймон — будущий лауреат Нобелевской премии — был настолько уверен в перспективах ИИ, что в 1965 он предсказал, что к 1985 году машины «будут способны выполнять любую работу, которую может выполнять человек». Что касается Марвина Мински, ученого-когнитивиста из Массачусетского технологического института (MIT), который стал соучредителем Лаборатории искусственного интеллекта, он смело заявил, что «через поколение… проблема создания искусственного интеллекта будет существенно решена».

    Не все были так уверены. Хьюберт Дрейфус, философ Массачусетского технологического института, утверждал, что эти амбиции были задуманы таким образом, чтобы быть недостижимыми на практике и невозможными в принципе. Исследования ИИ были обречены на провал, поскольку основывались на непоследовательной рационалистической философии. Он утверждал, что разумное человеческое поведение намного богаче, чем обработка информации. Это требует реагирования на ситуации с помощью «знаний здравого смысла», которые не поддаются программированию.

    Дрейфус изложил свои взгляды в статье 1964 года, написанной по заказу Rand Corporation (политический аналитический центр) под названием «Алхимия и искусственный интеллект». Он подробно изложил аргументы в своей книге 1972 года «Чего не могут сделать компьютеры». Многие споры касались того, что уже было названо «проблемой фреймов».

    Попасть в кадр

    Роботы, думал Дрейфус, могут быть запрограммированы на выполнение сложных человеческих задач, таких как ходьба по неровным поверхностям, улыбка или разумные ставки. Но чтобы сделать это по-человечески, необходимо учитывать конкретную ситуацию, в которой происходят эти действия. Например, чтобы сделать разумную ставку на скаковую лошадь, человек обычно смотрит на возраст лошади, прошлую историю побед, подготовку и историю жокея и т. д., и все это меняется с каждой скачкой.

    Нет проблем, возразил Минский. Робота можно запрограммировать на это, превращая эти факторы в информацию, которую робот обрабатывает с помощью полного набора правил или «фрейма». Если вы дадите роботу рамку, он сможет делать ставки на скаковых лошадей, как человек, а может быть, и лучше.

    Но дело не только в этом, утверждал Дрейфус в «Чего не могут сделать компьютеры». В ставках на скаковых лошадей присутствует множество других факторов, таких как аллергия лошади, состояние ипподрома и настроение жокея, которые меняются от скачки к скачке. Однако, когда компьютерные программисты анализируют релевантные факторы, заметил Дрейфус, они в конечном итоге ведут себя скорее как новички и любители (которые часто ошибаются) и меньше как эксперты (которые ошибаются гораздо реже, но, похоже, полагаются на неустановленную «программу программирования»). метод вообще). В этом отношении настоящий эксперт больше похож на человека, руководствующегося здравым смыслом, чем на человека, сознательно анализирующего факторы.

    Некоторые энтузиасты ИИ обвинили Дрейфуса в том, что он использовал проблему фреймов, чтобы попытаться вонзить кол в самое сердце ИИ. По их мнению, чтобы противостоять возражению Дрейфуса, робота просто запрограммировали на определение этих других факторов, если и когда они имеют значение, таким образом поместив другой кадр вокруг первого. Дрейфус ответил, что компьютеру потребуется еще один кадр, чтобы распознать, когда применить этот новый. «Любая программа, использующая фреймы, — писал он в своей книге 1972 года, — должна была попасть в регресс фреймов для распознавания релевантных фреймов для распознавания релевантных фактов». Иными словами, проблема хранения и извлечения знаний, основанных на здравом смысле, «была не просто проблемой; это был знак того, что со всем подходом что-то серьезно не так».

    Два подхода

    Споры о фреймах развернулись вокруг фундаментального философского различия между «картезианским» и «хайдеггеровским» подходами. В картезианском подходе предполагается, что мир, в котором живут и справляются люди, существует полностью независимо от разума, который сознательно пытается «познать» его. С этой точки зрения быть человеком означает справляться с жизнью, используя знания и убеждения для оценки значимых факторов, с которыми они сталкиваются. Таким образом, запрограммировать компьютер так, чтобы он реагировал на ситуацию по-человечески, означает снабдить его знаниями и возможностями обработки информации. Если они окажутся недостаточными, решение состоит в том, чтобы добавить больше правильных знаний или способностей обработки. Эта вдохновленная Декартом стратегия известна как «старый добрый искусственный интеллект» или GOFAI.

    Хайдеггерианский подход, напротив, начинается с совершенно иной концепции отношения человека к миру. В нем говорится, что фундаментальный человеческий опыт мира не относится к внешней сфере объектов, о которых мы теоретизируем. Скорее, люди погружены в мир в паутину связей и практик, которые делают мир знакомым. Совладание с миром больше похоже на здравый смысл, чем на использование теорий и их анализ. Теоретизирование приходит позже, как руководство к некоторым формам преднамеренных действий, когда спонтанное использование здравого смысла неэффективно или недостаточно по иным причинам.

    Подробнее

    Революция в области машинного обучения

    Обрамление ситуации превращает ее из ситуации в мире в искусственный мир. Это полезно для выполнения многих задач, таких как игра в шахматы или оценка сложных систем. Но если цель состоит в том, чтобы заставить робота реагировать на все ситуации, дополнительные знания или вычислительные мощности не помогут. Не существует «фрейма всех кадров», который бы это позволял. Хайдеггеровский ИИ, пишет Дрейфус, «не просто игнорирует проблему фрейма и не решает ее, но показывает, почему этого не происходит».

    Критическая точка

    Исследования в области ИИ прошли долгий путь за последние полвека и больше не зависят от грубых концепций интеллекта, принимаемых GOFAI как нечто само собой разумеющееся. На самом деле, более сложные недавние концепции были частично разработаны путем включения элементов первоначальной критики Дрейфуса. Например, в настоящее время практически отсутствует заявление о том, что ИИ будет полностью моделировать человеческое мышление и интеллект. Споры о проблеме фрейма стали чисто техническими, но она остается основной проблемой. Это одна из немногих областей, где философам и ученым удалось продуктивно взаимодействовать друг с другом.

    Зачем искусственному интеллекту нужна философия | Анжелин Хила | Наука и философия

    Как философские идеи могут направлять область искусственного интеллекта

    Футуристическая женщина. Изображение предоставлено командой Icons8.

    Перспектива подлинного искусственного интеллекта циркулировала в массовом сознании, по крайней мере, с момента появления мейнфреймов в 1960-х годах, но лихорадочный энтузиазм 1970-х и 1980-х годов вскоре угас, когда научное сообщество столкнулось лицом к лицу с проблемой то, что веками занимало философов: проблема сознания.

    То, что сознание вообще должно находиться в радиусе научного исследования, было табу. Это было результатом господства методологического бихевиоризма в психологии, отвергавшего систематическое изучение психических явлений, поскольку они оказывались столь устойчивыми к экспериментированию.

    Эта точка зрения господствовала примерно до 1960-х годов, когда уже нельзя было игнорировать ограничения моделирования человеческого поведения на основе подкрепления и оперантного обусловливания. Сами философы пережили свою собственную бихевиористскую фазу и сформулировали позиции по поводу сознания, пытаясь согласовать словарь ментальных явлений, таких как боль и чувства, с материалистической наукой.

    Многие из этих взглядов имели редукционистскую повестку дня в том смысле, что они приводили доводы в пользу тождества ментальных состояний, таких как мысли и желания, с состояниями мозга, описанными на языке нейробиологии, скажем, возбуждением с-волокон.

    Интегральная схема. Изображение Умберто.

    Одним из положительных результатов когнитивной революции было то, что она признала ограничения бихевиористской методологии, а именно единственного изучения наблюдаемого человеческого поведения, и начала мультидисциплинарное исследование разума, в котором использовались идеи философов, психологов, лингвистов и нейробиологов, известных как когнитивная наука.

    Из этого мультидисциплинарного подхода стало ясно, что редукционистские теории и модели были крайне неадекватны в том смысле, что они пытались отрицать реальность внутренних явлений вместо того, чтобы объяснять их.

    Параллельно с когнитивной революцией область искусственного интеллекта зародилась в Дартмутском колледже в 1950-х годах под влиянием теории вычислений Алана Тьюринга и появления цифровых компьютеров в том же десятилетии. Поскольку цифровые компьютеры моделируют математические вычисления и манипулирование символами, возникла идея, что манипулирование символами является сущностью разума. Это можно выразить метафорой, согласно которой разум относится к мозгу так же, как программное обеспечение к аппаратному обеспечению компьютеров.

    Энтузиазм по поводу отождествления вычислений с человеческим мышлением был настолько велик, что Герберт Саймон, один из основателей ИИ, провозгласил, что машины смогут делать то же, что и люди, через несколько десятилетий. Этого, увы, не произошло. Что пошло не так?

    Разум как туманное явление. Изображение Jr Korpa.

    Здесь вступает в игру философия. Один из аспектов, который признавали многие философы и который компьютеры не могли воспроизвести, — это субъективный опыт от первого лица, характеризующий человеческое сознание. Некоторые философы и ученые находят эту проблему настолько не поддающейся объяснению, что называют ее трудной проблемой сознания.

    Философ, придумавший этот термин, Дэвид Чалмерс, изложил свои взгляды в своей книге Сознательный разум: в поисках фундаментальной теории (1996). В нем он утверждает, что эмпирическая наука практически не продвинулась в объяснении того, как мозг порождает внутренний, субъективный опыт, отчасти потому, что осознание от первого лица нельзя разбить на компоненты, как другие явления, и оно может быть фундаментальным.

    Другие философы, такие как Дэниел Деннет, не согласны.

    Эти философы думают, что многое из того, что мы воспринимаем как единый, внутренний, субъективный театр с самим собой у руля, является скорее искусной иллюзией, порожденной массивными системами обработки информации в мозгу, которые принимают сенсорный ввод и выдают сложное поведение на выходе.

    Части нашего опыта, а именно мысли, желания, убеждения, боли и удовольствия, — это верхушка айсберга океана бессознательных процессов. Таким образом, Деннет отрицает реальность субъективного опыта от первого лица, также известного как квалиа, и вместо этого утверждает, что поток осознания является результатом обширного пучка параллельных и почти независимых процессов, создающих иллюзию единого поля.

    Секрет взлома кода разума не в преодолении барьера, который каким-то образом качественно отделяет разум от других явлений, а в том, чтобы позволить эмпирической науке идти своим чередом. Деннет изложил свои взгляды в своей основополагающей книге «Объяснение сознания » (1993), которую одновременно хвалили за усилия по натурализации сознания и критиковали за полное уклонение от проблемы субъективного опыта от первого лица.

    Философы, таким образом, делятся на два лагеря: те, кто думает, что субъективный опыт сводим к состояниям мозга и, следовательно, тождественен им, и те, кто думает, что субъективный опыт, хотя и причинно порожденный мозгом, не может быть сведен к нему или объяснен прочь. Разновидности позиций на самом деле гораздо более нюансированы, чем я могу понять, но по существу различие можно резюмировать следующим образом: в то время как почти все философы выступают за физическое тождество, а именно, что существует только одна физическая реальность, некоторые отрицают свойство тождественность, а именно то, что некоторые свойства, такие как чувство боли, идентичны физическим свойствам, таким как возбуждение нейронов.

    Несмотря на философские разногласия относительно того, является ли опыт чем-то невыразимым, что мы не можем ассимилировать в материалистической науке, сегодня философы и ученые почти единодушны в своем неприятии вычислительной теории разума.

    Разум — это не компьютер; на самом деле мы в целом плохо разбираемся в математике и рассуждениях, а манипуляции с символами фиксируют только часть того, что делает разум, и при этом он не делает это последовательно, как компьютер.

    Знаменитая книга Дэниела Канемана Thinking Fast and Slow (2011) популяризирует множество психологических данных, указывающих на то, что психические процессы делятся на две параллельные системы, которые неудобно соседствуют друг с другом: одна эвристическая и специфичная для предметной области, управляемая эволюционно более старыми частями мозга, такими как миндалевидное тело и ствол мозга, а другие медленные и общие домены управляются эволюционно более молодыми частями мозга, такими как кора головного мозга.

    Огромное разнообразие когнитивных искажений, описанных в книге, свидетельствует об ограниченности наших умственных способностей и о том, как отдельные системы мозга эволюционировали, чтобы справляться с проблемами окружающей среды за счет упрощения ввода информации.

    Коннектом: МРТ трактов белого вещества головного мозга. Фото из Википедии.

    Сегодня вся мода на ИИ переместилась на бурно развивающуюся область искусственных нейронных сетей. Не серийная обработка, смоделированная на основе вычислений, а искусственные нейронные сети, реализованные в компьютерах, лучше моделируют разум.

    В отличие от последовательной обработки нейронные сети моделируют обработку информации в биологических нервных системах, состоящих из нейронов, которые передают электрохимические сигналы через сеть.

    Эквивалентами нейронов в модели являются узлы, наделенные активационными весами. Входной сигнал представляет собой действительное число, а выходной сигнал вычисляется как нелинейная функция суммы входных данных в слое узлов. Сигнал распространяется, если выход достигает порога, значение которого изменяется с каждой итерацией ввода или обучения.

    Возможно, ответом являются искусственные нейронные сети. В конце концов, они являются наиболее близкой моделью к нашему пониманию того, как работает мозг.

    Единственная проблема заключается в том, что нынешнее понимание биологических нейронных сетей в лучшем случае слабое. Биологический сигнал не является числом и не вычисляется с помощью функции. Мы еще не знаем, каким образом соединения через миллиарды нейронов порождают идентифицированные нами когнитивные системы, такие как память, внимание и механизмы обучения, хотя у нас есть очень хорошие предположения о параллельных нейронных цепях. Наиболее неуловимые субъективные переживания, такие как боль, мысли и самость, остаются еще менее понятными.

    Остается вопрос, на который нужно ответить: как рекуррентная сетевая архитектура реализует разум?

    Пока не будет получен ответ на этот вопрос, у ИИ нет надежды конкурировать с человеческим общим интеллектом.