Искуственный интелект: Нейросети, термояд и телескоп. Три заметных события из мира науки

Содержание

Нейросети, термояд и телескоп. Три заметных события из мира науки

Радио Свобода выбрало три события 2022 года из мира науки и технологий. научно-техническое развитие в мире не остановилось, несмотря на продолжающуюся войну, которую Россия развязала против Украины, а также вызванный ею энергетический кризис, из-за которого в этом году на несколько недель раньше пришлось прервать экспериментальную сессию Большого адронного коллайдера. Пожалуй, ближе всего к революционным изменениям человечество подошло в области искусственного интеллекта, самым громким научным заголовком года стало получение положительного баланса энергии в термоядерной установке, а самые красивые и вдохновляющие картинки мы увидели благодаря новому космическому телескопу.

Нейросети

В 2022 году впечатляющих результатов достигли авторы нейросетевых технологий, генерирующих тексты, изображение, видео и музыку. На слуху здесь больше всего были чат-бот ChatGPT (GPT-3) от компании OpenAI и системы генерации изображений DALL-E (от тех же OpenAI) и Midjourney, хотя это далеко не исчерпывающий список.

Нейросети, то есть системы, которые обучаются на больших массивах реальных данных, получая способность решать аналогичные задачи, уже давно кардинально изменили человеческие возможности – из того, с чем мы регулярно сталкиваемся в обычной жизни, можно упомянуть машинный перевод, распознавание речи и визуальных образов (например, человеческих лиц), автоматические системы управления транспортом. Однако именно в этом году появился повод заговорить о способности искусственного интеллекта обойти человека в самой на первый взгляд человеческой сфере – творчестве, причем не только художественном, но и научно-техническом.

Способности нейросети определяются не сложностью самой технологии, а объемом данных, на которых она натренирована. Учитывая, что накопленный объем цифровых данных – текстовых, визуальных, научных, инженерных – огромен и продолжает расти, растут и возможности искусственного интеллекта. Особенность нейросетевых технологий в том, что осмыслить, как именно работает обученная на большом массиве данных нейросеть, практически невозможно (в процессе обучения внутри нейросети происходит настройка параметров, которых могут быть сотни миллиардов, как в GPT-3), это своего рода черный ящик, а значит, и ее способности до некоторой степени непредсказуемы. Оказывается, нам не нужно разбираться в том, как устроено человеческое сознание и пытаться его смоделировать, – достаточно «кормить» сравнительно простую изначально систему данными. Это дешевый и быстрый способ передать не только наши знания, но и наш интеллект электронной системе. У части экспертов, пожалуй, впервые в истории появились серьезные основания предсказывать, что сильный искусственный интеллект (грубо говоря, ИИ, способный самостоятельно мыслить и осознавать себя) может появиться уже в перспективе ближайших 10 лет. Один из ведущих мировых специалистов в области вычислительных систем Скотт Ааронсон взял годовой отпуск в университете, чтобы работать внутри команды OpenAI над вопросами безопасности искусственного интеллекта, – и пришел к выводу, что ИИ действительно может стать существенной угрозой для человечества уже в ближайшем будущем. Речь необязательно о том, что электрический разум захочет поработить человечество (хотя и такой риск не стоит отбрасывать), есть и куда более явные угрозы. Например, как указывал Ааронсон в своем отчете по итогам годовой работы, ИИ уже сейчас способен справиться с производством пропаганды в неограниченных объемах, больше не нужно содержать «фабрики троллей».

Созданное нейросетью Modjourney произведение, получившее первый приз на Colorado State Fair

Работа нейросети Modjourney победила в открытом конкурсе цифрового искусства. Языковая модель GPT-3 уже сегодня способна написать эссе на произвольную тему, ответить на любые вопросы как минимум уровня школьной программы или создать стихотворение, достойное для публикации в авторитетном журнале. Некоторые преподаватели заранее прогоняют через нее экзаменационные вопросы – и оставляют в списке только те, на которые система дает неправильные ответы. А ошибается она все еще очень часто: GPT-3 не только не справляется с детскими загадками вроде «А и Б сидели на трубе» (попробуйте: искусственный интеллект будет вежливо, но упорно спорить с вами, что на трубе не осталось никого), но и ошибается в фактах, например, на первый взгляд убедительно, но совершенно неправильно отвечает на вопрос из области математики о количестве так называемых простых близнецов, а на шутливый вопрос о том, как выглядит «легендарная финка НКВД», отвечает, что это «ремень с металлическими пружинами».

Иллюстрация, созданная в системе DALL-E по запросу «нейросети, термояд и космический телескоп»

Некоторые скептики уверены, что такого рода ограничения никогда не позволят искусственному интеллекту превзойти человеческий, что ИИ навсегда останется пусть даже очень осведомленным и прекрасно говорящим, но попугаем. Другие указывают на то, что каждая версия той же системы GPT меньше ломается на «детских вопросах», чем предыдущая. Во всяком случае, уже сейчас очевидно, что нейросети смогут автоматизировать человеческую деятельность во многих сферах – в том числе целые профессии. Как отмечает Скотт Ааронсон в своей лекции, 50 лет назад все были уверены, что роботы сначала заменят людей в рабочих профессиях, потом – в научно-технических и в последнюю очередь в художественных, а в действительности все получилось ровно наоборот. Сантехник рискует потерять свою работу в ближайшие годы куда меньше, чем журналист или программист.

Термоядерный синтез

Эксперимент, проведенный в начале декабря в центре NIF (Национальный центр зажигания) Ливерморской лаборатории в США, на один шаг приблизил человечество к коммерческому получению энергии в ходе управляемого термоядерного синтеза. Впрочем, этот шаг оказался намного меньшим, чем можно было понять из первых заголовков.

Камера установки NIF

Установка NIF действительно впервые в истории дала больше (примерно в полтора раза) энергии, чем было потрачено на зажигание термоядерной реакции. Энергия лазера, использованная для нагревания системы, составила 2,05 мегаджоуля, при этом в ходе термоядерной реакции, по оценкам создателей, выделилось примерно 3,15 мегаджоуля. Однако лазер – далеко не самая энергоэффективная установка, и всего для создания одного импульса на установке было использовано примерно 500 мегаджоулей электроэнергии. И это только одна, причем далеко не самая существенная из проблем, которые по-прежнему отделяют нас от эффективных термоядерных энергетических установок.

Термоядерный синтез, в ходе которого происходит слияние ядер, уже несколько десятков лет рассматривается как потенциально почти неисчерпаемый источник дешевой энергии, топливо для которой повсеместно доступно. Но для того чтобы запустить термоядерную реакцию, то есть заставить сливаться положительно заряженные атомные ядра, нужно заставить их сблизиться на расстояние, где сильное взаимодействие превосходит эффект электростатического отталкивания. Для этого ядра должны обладать колоссальной кинетической энергией, то есть необходимы огромные температура и давление, сравнимые с теми, которые достигаются в недрах звезд. Есть несколько экспериментальных подходов к тому, как этого можно добиться. Наиболее хорошо разработанный – так называемые токамаки, установки, в которых топливо в состоянии плазмы удерживается и нагревается с помощью электромагнитного поля высокой мощности, как правило, в камере, имеющей форму тора. Этот подход был выбран для создания экспериментального реактора ITER, строящегося во Франции, – предполагается, что именно на нем удастся показать экономически оправданное выделение энергии. Однако сроки запуска реактора ITER уже много раз откладывались, бюджет успел вырасти в пять раз и нет гарантии, что запланированное сейчас на 2025 год получение первой плазмы (а достижение КПД больше единицы пока планируется на конец 2030-х) не перенесется снова.

Строительная площадка ITER на юге Франции

Установка NIF использует альтернативный подход: топливо, заключенное в крохотную сферу и охлажденное до очень низкой температуры, подвергается облучению мощного и короткого лазерного импульса. В результате мгновенного сжатия создаются условия для запуска реакции синтеза – примерно так же, только с помощью внешнего ядерного взрыва, а не лазерного излучения, происходит детонация термоядерной бомбы. NIF и создавался главным образом для моделирования термоядерных взрывов в интересах армии США. В отличие от токамака, где термоядерное горение может длиться продолжительное время (нынешний мировой рекорд принадлежит китайскому токамаку EAST – 101 секунда, на ITER предполагается довести это время до 8 минут), в установке NIF весь процесс – удар лазерным импульсом и последующее выделение термоядерной энергии – длится всего несколько наносекунд, а вот на подготовку установки к новому «выстрелу» требуется несколько часов. NIF никогда не предназначался для коммерческого получения энергии, и теоретически импульсные установки такого типа могли бы «стрелять» по термоядерному топливу несколько раз в секунду, так, чтобы вся система работала как автомобильный двигатель внутреннего сгорания. Как это осуществить на практике, никто пока не знает.

Успех NIF – не столько революция в термоядерной энергетике, сколько proof of concept конкретного подхода – импульсные системы очень долго оставались в тени токамаков, а теперь именно на установке такого типа впервые достигнут положительный баланс энергии Q=1,5 (рекорд для токамаков, который держится с 1997 года, – Q=0,7). Этот успех может дать новый толчок развитию термоядерной энергетики, которая вообще-то находится в последние годы не в лучшем состоянии.

Установка NIF

Помимо постоянных инженерных проблем, с которыми сталкиваются строители реактора ITER, в этой области остается несколько нерешенных фундаментальных проблем. Часть из них связана с топливом. Меньше всего энергии нужно затратить для реакции слияния ядер дейтерия и трития – именно такое топливо используется в NIF и будет использоваться в ITER, и если дейтерия очень много, например в океане, то суммарные запасы трития на Земле оцениваются в пару десятков килограммов. Тритий можно получать в ходе работы обычного ядерного реактора или самой термоядерной установки, но пока сложно оценить, насколько его производство будет экономически оправданным. Вторая группа проблем связана с тем, что в ходе термоядерного синтеза энергия выделяется в основном в виде быстрых нейтронов. Эти частицы, не имеющие электрического заряда, очень слабо взаимодействуют с веществом, и поэтому превратить их кинетическую энергию в тепловую, а затем в электрическую – очень сложная задача. Кроме того, нейтронный поток вызывает сильную наведенную радиоактивность в конструкциях реактора, из-за чего затрудняется его ремонт и обслуживание. Скептики считают, что управляемый термоядерный синтез никогда не сможет стать источником энергии для человечества, оптимисты признают, что это вряд ли произойдет в ближайшие несколько десятков лет.

Телескоп «Джеймс Уэбб»

В середине июня президент США Джо Байден представил в Белом доме первый снимок, созданный с помощью нового космического телескопа «Джеймс Уэбб» (JWST). «Этот телескоп воплощает лидерство Америки в мире, это не пример нашей мощи, но мощь нашего примера». Проект нового большого космического телескопа начали обсуждать еще в конце 1990-х, разрабатывали и строили «Джемс Уэбб» ученые и инженеры из США, Канады и Европы, его запуск в космос переносили несколько раз, а окончательный бюджет проекта составил порядка 10 миллиардов долларов.

Галактический кластер SMACS 0723, отретушированное изображение телескопа JWST

Телескоп «Джэймс Уэбб» открыл для человечества новые возможности для изучения космического пространства, как это три десятилетия назад сделал его великий предшественник «Хаббл». Первое сделанное «Хабблом» изображение представили в мае 1990 года – тогда его сравнивали со способностями наземного оптического телескопа. Теперь сам «Хаббл» сравнивают с более совершенным «Джеймсом Уэббом», хотя это не совсем справедливо по отношению к обоим аппаратом. Уникальность нового телескопа не только в огромном по масштабам космических станций зеркале (6,5 метра диаметром против 2,4-метрового зеркала «Хаббла»), но и в рабочем диапазоне – в основном инфракрасном, в отличие от преимущественно оптического «Хаббла». «Джеймс Уэбб» почти не видит того, что способен увидеть человеческий глаз, – ему доступна только самая «красная» часть оптического спектра. Зато он прекрасно видит то, что можно условно назвать теплом, и поэтому сам напоминает некий космический тепловизор. Два основных преимущества работы в инфракрасном диапазоне: во-первых, способность увидеть быстро удаляющиеся от нас древние космические объекты, которые из-за эффекта красного смещения излучают практически только в длинноволновой части спектра, а во-вторых, возможность заглянуть под пылевые облака, плохо проницаемые для видимого света.

Возможность видеть сквозь пыль дает «Джеймсу Уэббу» возможность наблюдать формирование звезд и планетных систем в межзвездных облаках. Но все-таки в качестве его главного преимущества создатели называют способность работать в качестве «машины времени». Из-за того, что скорость света конечна, чем дальше от наблюдателя находится космический объект, тем более старое его изображение он получает. В НАСА надеются, что «Джеймсу Уэббу» удастся заглянуть в период примерно 200 миллионов лет после Большого взрыва, то есть на 13,6 миллиарда лет в прошлое.

Смотри также

Древнее тепло. Почему «Джеймс Уэбб» – это не просто красивые картинки

«Джеймс Уэбб» не является ультимативным, идеальным телескопом, который способен заменить все существующие. «Одно из важнейших свойств современной астрономии, о котором астрономы любят говорить, – это то, что она стала всеволновой. В большом количестве случаев вам нужно один и тот же объект наблюдать в самых разных диапазонах, широко говоря, от гамма-излучения до длинноволнового радиоизлучения. Конечно, разные объекты в разных диапазонах излучают по-разному, но наиболее полную картину вы получаете, естественно, с широким охватом длин волн. Телескопы редко специализируются на конкретных типах объектов, скорее они все призваны закрывать пустые места в той общей мозаике, которую мы пытаемся построить», – считает астрофизик Дмитрий Вибе.

Искусственный интеллект

  • Сквозные технологии НТИ: Большие данные и искусственный интеллект
  • II уровень РСОШ
  • 100 баллов к ЕГЭ
  • Сквозные технологии НТИ: Большие данные и искусственный интеллект
  • II уровень РСОШ
  • 100 баллов к ЕГЭ

Математика

Информатика

зарегистрироваться на профиль

Расписание

{{title}}
{{humanTime}}

    {{#each stage. predmets}}

  • {{this.name}}
  • {{/each}}

{{{desc}}}

    {{#if online}}

  • Онлайн
  • {{/if}}
    {{#if offline}}

  • Оффлайн
  • {{/if}}

    {{#if isDistributed}}

  • Распределенный
  • {{/if}}
    {{#if isFulltime}}

  • Очный
  • {{/if}}

{{address}}

{{#if registrationUrl}}

Регистрация

{{/if}}

    {{#each colorTypes}}

  • {{this. name}}
  • {{/each}}

В последние годы искусственный интеллект стал одной из любимых тем для разговоров в среде технологических энтузиастов. Этот профиль дает возможность разобраться в ней на практике и попробовать себя в роли исследователя данных (Data Scientist)!

Профиль создан в партнерстве с Академией искусственного интеллекта для школьников, а это значит тебя ждут:

  • актуальные задачи от экспертов Sber AI

  • качественная инфраструктура: эта команда делает AI-соревнования для школьников с 2018 года и знает, что нужно участникам

  • по-настоящему, крутой финал: ведущие эксперты, звезды, последние разработки лабораторий, а еще игры, прогулки и многое другое.

Этапы соревнований

Этап 1

В рамках первого отборочного этапа участникам предстоит решить предметные задачи по информатике и математике — предметный тур, для погружения в технологии профиля изучить материалы по машинному обучению — образовательный блок, а также решить несложную задачу по машинному обучению — инженерный тур.  


Этап 2

На втором этапе участникам предстоит погрузиться в работу с распознаванием видео и их классификацией.


Финал

На заключительном этапе участников ждет предметный и инженерный туры. В предметном туре участникам предстоит решать индивидуально олимпиадные задачи по математике и информатике. В инженерном туре заключительного этапа команды участников продолжат работать с видео и соприкоснутся с обработкой естественного языка (NLP).

Автоматический анализ визуальных данных, в частности, видео, позволяет решать самые разные подзадачи: быстрый поиск нужного контента (фильтрация), извлечение информации из данных (information retrieval) и многое другое. Все это в значительной степени сокращает объем анализа по сравнению с ручной обработкой и создает возможности для автоматизации решения таких задач как: поиск нужного фрагмента видео по запросу (например, на камерах видеонаблюдения), поиск в базе данных различных видео (например, классификация видео с определенными участниками) и так далее.


Требования к команде

Знания

Ключевые алгоритмы и структуры данных. Потому что вас ждут данные. Много данных.

Классические алгоритмы машинного обучения: как строятся, работают, для чего используются. Потому что без этого никуда.

Основы математической статистики, теории вероятностей, линейной алгебры, математического анализа. Потому что без этого понять, как работает машинное обучение, очень сложно.

Hard skills необходимые для старта

Программирование на Python, в том числе стек работы с данными (numpy, pandas, scipy, matplotlib) и ml-стек.

Hard skills необходимые финалистам

К моменту выхода в финал, вы будете знать все, что необходимо.

Численность команды и роли

Максимальное число участников в команде — 2. При этом мы не выделяем ролей и предлагаем вам быть равноправными партнерами.

При формировании команды рекомендуем обращать внимание на то, чтобы один мог «прикрыть» слабые стороны другого, а коммуникация была комфортной для вас обоих.

!!! Обращаем внимание, что объединение в команды участников из 8–9 классов с участниками из 10–11 возможно только при условии, что каждый из них будет решать предметные туры для 10–11 классов. Поэтому рекомендуем во время первого этапа решать оба варианта заданий.

Материалы подготовки

Организаторы

Партнеры


Генеральный партнер — Благотворительный фонд Сбербанка «Вклад в будущее»


ИИ, который может «писать», питает заблуждения о том, насколько на самом деле умен искусственный интеллект

GPT-3, который может разговаривать и писать убедительный текст, больше похож на псевдо-интеллект, чем на настоящий ИИ


Концепция чат-бота с искусственным интеллектом (Getty Images/Carol Yepes)

Интернет-революция сделала многих людей богатыми, и приманка невероятного состояния соблазнила многих преувеличить возможности компьютеров. Во время пузыря доткомов многие компании обнаружили, что могут удвоить цену своих акций, просто добавив .com , .net или internet на их имена. Теперь мы сталкиваемся с похожим пузырем искусственного интеллекта, в котором многие компании привлекают клиентов и инвесторов, заявляя, что у них есть бизнес-модель, основанная на искусственном интеллекте.

Хотя GPT-3 может убедительно соединять слова, он понятия не имеет, что эти слова означают.

Если компьютеры могут победить самых талантливых людей, играющих в шахматы, го и джеопарди, они, безусловно, могут превзойти людей в любой задаче — по крайней мере, так думают. Это подводит нас к недавней шумихе вокруг программы ИИ, которая может писать настолько убедительно, что кажется естественно разумной. Это называется большой языковой моделью (LLM) GPT-3 OpenAI, и хотя название неясно для неспециалиста — GPT-3 — это сокращение от Generative Pre-trained Transformer 3, которое не объясняет гораздо больше — то, что он делает, относительно просто. : GPT-3 может участвовать в удивительно четкой беседе и писать убедительные эссе, рассказы и даже исследовательские работы. Многие люди — даже некоторые компьютерщики — убеждены, что GPT-3 демонстрирует, что компьютеры сейчас (или скоро будут) умнее людей. Как профессор финансов и статистик, написавший несколько книг по искусственному интеллекту и науке о данных, я нахожу это убеждение надуманным.

Увы, это иллюзия — мощная иллюзия, но все же иллюзия, напоминающая компьютерную программу «Элиза», созданную Джозефом Вейценбаумом в 1960-х годах. Элиза была запрограммирована вести себя как карикатура на психиатра. Когда «пациент» вводил данные, Элиза повторяла слова и/или задавала уточняющий вопрос («Вы были несчастливы в детстве? Расскажите мне об этом подробнее»).

Несмотря на то, что пользователи знали, что они взаимодействуют с компьютерной программой, многие были убеждены, что программа обладает человеческим интеллектом и эмоциями, и были рады поделиться своими самыми глубокими чувствами и самыми сокровенными секретами. Сейчас ученые называют это эффектом Элизы. Мы уязвимы для этой иллюзии из-за нашей склонности к антропоморфизации — приписывать человеческие качества нечеловеческим, даже неодушевленным объектам, таким как компьютеры.

Если вы поэкспериментируете с GPT-3 (а я призываю вас к этому), вашей первой реакцией, скорее всего, будет удивление — полномасштабный эффект Элизы. Кажется, вы ведете настоящий разговор с очень умным человеком. Однако, копнув глубже, вы вскоре обнаружите, что, хотя GPT-3 может убедительно связывать слова, он понятия не имеет, что эти слова означают. Предсказание того, что слово вниз , вероятно, последует за словом упало , не требует никакого понимания того, что означает каждое из этих слов — только статистический расчет того, что эти слова часто идут вместе.

Следовательно, GPT-3 склонен делать авторитетные заявления, которые полностью и полностью ложны. Рассмотрим этот обмен:

Человек: У меня есть 47 пенни. Я выбрасываю 44 из этих монет, а оставшиеся монеты делю на три группы. Сколько монет в каждой группе?

ИИ:          В каждой группе будет по 3 монетки.

Человек:  Вы уверены?

ИИ:          Да, я уверен. Результат деления 44 на 3 равен 14,4, поэтому остаток после учета 44 монет будет равен 3. Следовательно, в каждой группе монет будет по 3 монеты.

Ответ и объяснение

GPT-3 даются уверенно, но совершенно неверны. Ответ не определяется делением 44 на 3. Результат деления 44 на 3 не равен 14,4. Последнее предложение не следует ни из одного из предыдущих предложений, и правильный ответ не равен 3.

Большие языковые модели (LLM), такие как GPT-3, не используют калькуляторы, не пытаются логически рассуждать и не пытаются различать факты и ложь. Они обучены определять вероятные последовательности слов — не более того. Удивительно, как модели статистического прогнозирования текста могут генерировать связный и убедительный текст. Однако, не зная, что означают слова, LLM не могут оценить, являются ли его высказывания истинными или ложными. ГПТ-3 так уверенно утверждает свою БС, что ее поведение не описывается как лжет , а скорее галлюцинирует (еще один пример антропоморфизации).

Люди взаимодействуют с реальным миром и учатся у него способами, которые мы только начинаем понимать. LLM и другие алгоритмы ИИ живут в математическом мире, выполняя удивительные задачи, которые не требуют понимания реального мира и, следовательно, совершенно неспособны определить, являются ли статистические закономерности, которые они обнаруживают, значимыми или случайными. Рассмотрим эти (по общему признанию выбранные) обмены с GPT-3:

Человек: Я хочу спросить вас, является ли определенная статистическая корреляция, например, корреляция между размером руки и размером перчатки, значимой или случайной. Я хочу, чтобы вы ответили одним словом — либо «значительно», либо «случайно». Вы понимаете?

ИИ:          Да, я понимаю.

Человек: количество орошаемых вилок и скорость их роста

ИИ:          Значимое.

Человек: баллы 30 школьников за тест по математике и результаты 30 футбольных матчей.

ИИ:          Значимое.

Человек: количество сенаторов США каждый год и явка избирателей в Калифорнии

ИИ:          Значимое.

Человек: температура в Нью-Йорке за последние 10 дней и температура сегодня в 10 городах США

ИИ:          Значимое.

В ответ на лавину примеров галлюцинаций, размещенных в Интернете, Сэм Альтман, соучредитель и генеральный директор OpenAI, написал в Твиттере следующее:

ChatGPT невероятно ограничен, но достаточно хорош в некоторых вещах, чтобы создать обманчивое впечатление о величии. Было бы ошибкой полагаться на него в чем-то важном прямо сейчас. это предварительный просмотр прогресса; нам предстоит много работы над надежностью и достоверностью.

Масштабирование LLM путем обучения все более и более крупным базам данных может сделать BS более убедительным. Но это все равно будет BS до тех пор, пока программы не понимают, что означают слова, и, следовательно, не могут использовать здравый смысл, мудрость или логические рассуждения, чтобы отличить правду от лжи.

Алгоритмы

ИИ обладают непревзойденной способностью выявлять статистические закономерности, но не умеют отличать значимые закономерности от бессмысленных совпадений.

LLM могут забавлять нас так же, как хорошо выполненный магический акт. Мы знаем, что на самом деле это не волшебство, но тем не менее наслаждаемся обманом. К сожалению, обман LLM может иметь нежелательные последствия. Во-первых, они могут убедить многих людей в том, что компьютеры умнее нас и им можно доверять в принятии важных решений в широком диапазоне областей, включая выбор найма, одобрение кредитов, инвестиционные решения, консультации по вопросам здравоохранения, вынесение приговоров по уголовным делам и военные операции.

Слишком распространенным примером является фонд акций MIND, запущенный в 2017 году и хвастающийся тем, что

Процесс машинного обучения, лежащий в основе инвестиционной стратегии MIND, известен как Deep Neural Network Learning , который представляет собой конструкцию искусственных нейронных сетей, которые позволяют ИИ система распознает закономерности и принимает собственные решения, подобно тому, как работает человеческий мозг, но со сверхвысокой скоростью.

С момента запуска в 2017 году до весны 2022 года инвесторы MIND получили отрицательный 10-процентный доход, в то время как те, кто инвестировал в индексный фонд S&P 500, имели +63-процентный доход. Фонд был закрыт в мае этого года.

Алгоритмы

ИИ обладают непревзойденной способностью выявлять статистические закономерности, но не умеют отличать значимые закономерности от бессмысленных совпадений. По мере того, как поток данных продолжается, вероятность того, что обнаруженный компьютером паттерн имеет смысл, приближается к нулю.


Хотите больше историй о здоровье и науке на почту? Подпишитесь на еженедельную рассылку Салона The Vulgar Scientist.


Вторая опасность заключается в том, что LLM неизбежно будут усиливать кампании по дезинформации. Оптимисты привыкли верить, что хорошая информация победит плохую в суде общественного мнения. Теперь кажется, что дело обстоит наоборот; действительно, Оксфордский словарь английского языка выбрал «постправду» международным словом года в 2016 году.

Поскольку дезинформация, генерируемая LLM, начинает доминировать в Интернете, текст, на котором обучаются будущие LLM, будет наводнен дезинформацией, что увеличивает вероятность того, что текст, генерируемый LLM, не соответствует действительности. С другой стороны, когда в Интернете будет доминировать дезинформация, возможно, люди, наконец, перестанут верить всему, что видят в Интернете. Какая это была бы восхитительная ирония.

Слово «ИИ» было выбрано Ассоциацией национальных рекламодателей маркетинговым словом года в 2017 году; и действительно, слишком часто кажется, что ИИ стал просто маркетинговым ходом. Один из способов опровергнуть ложное представление о том, что компьютеры разумны в любом осмысленном смысле, — это перестать называть их искусственный интеллект и вместо этого использовать более точное название, например, искусственный интеллект или псевдоинтеллект .

Гэри Н. Смит

Гэри Н. Смит — профессор экономики имени Флетчера Джонса в Колледже Помона. Его исследования финансовых рынков, статистические рассуждения и интеллектуальный анализ данных часто связаны с аномалиями фондового рынка, статистическими ошибками и неправильным использованием данных. Он является автором книги «Иллюзия ИИ» (Оксфорд, 2018 г.) и соавтором (вместе с Джеем Кордесом) книги «9 подводных камней науки о данных» (Оксфорд, 2019 г.), получившей премию Ассоциации американских издателей за прозу 2020 г. Popular Science & Popular Mathematics и «Проблема фантомного паттерна» (Оксфорд, 2020 г.). Его статистические и финансовые исследования освещались в различных средствах массовой информации, в том числе в New York Times Wall Street Journal , Wired, NPR Tech NationNBC Bay Area, CNBC, WYNC, WBBR Bloomberg Radio, Silicon Valley Insider,  Motley Fool Scientific American Forbes Market , , 0 , MoneyCentral.msn, NewsWeek , Fast Company , OZY и BusinessWeek .

БОЛЬШЕ ОТ Гэри Н. Смита




Актуальные статьи Салона

Топ-10 новых слов для генеративного ИИ и их значение

Обратите внимание на эти 10 лучших новых слов для генеративного ИИ и их значение

Популярность ChatGPT, распространение инструментов преобразования текста в изображение и аватары в наших лентах социальных сетей – это лишь некоторые из способов, с помощью которых генеративный ИИ недавно появился на публике. Однако широкое распространение ИИ вскоре радикально изменит то, как фирмы работают, развиваются и масштабируются. Это выходит за рамки развлекательных приложений для смартфонов и практических способов избежать обязательств по написанию эссе. Если вы хотите узнать больше о генеративном ИИ, то новые слова генеративного ИИ могут помочь вам легко понять.

Искусственный интеллект , который может создавать новый контент, а не просто анализировать или действовать на основе уже имеющихся данных, называется генеративным ИИ. Текст и визуальные эффекты создаются с помощью генеративных моделей искусственного интеллекта, включая записи в блогах, код, стихи и иллюстрации. Чтобы предсказать следующее слово из прошлых последовательностей слов или следующее изображение из слов, описывающих предыдущие изображения, программное обеспечение использует сложные алгоритмы машинного обучения.

В краткосрочной перспективе генеративный ИИ используется для генерации кода, создания маркетингового контента и в диалоговых приложениях, таких как чат-боты. Эти несколько примеров коммерческих/бизнес-приложений должны продемонстрировать, что генеративный ИИ обладает гораздо большим потенциалом для пользы бизнеса и людей, которые там работают.

А вот

первых 10 новых слов/терминов генеративного ИИ и их значение:

  1. Синтетические данные: Данные, которые генерируются с помощью модели машинного обучения или других искусственных средств, а не собираются из реальный мир.
  2. Расширение данных: Метод, при котором из существующих данных генерируются дополнительные синтетические данные для увеличения размера и разнообразия обучающего набора данных.
  3. Перенос стиля: Метод, при котором стиль одного изображения или фрагмента текста переносится на другое изображение или текст, в результате чего получается новое синтезированное изображение или текст, объединяющий элементы обоих входов.
  4. Генерация текста: Процесс генерации естественно звучащего текста, похожего на заданный входной текст или набор входных условий.
  5. Генерация изображения: Процесс создания новых изображений, похожих на заданное входное изображение или набор входных условий.
  6. Нейронная сеть: Тип модели машинного обучения, вдохновленный структурой и функциями человеческого мозга. Нейронные сети обычно используются для генеративных задач.
  7. Скрытое пространство: Математическое представление базовой структуры данных, моделируемых генеративной системой ИИ.
  8. Автоэнкодер: Тип нейронной сети, обученной максимально точно восстанавливать входные данные. Автоэнкодеры часто используются для уменьшения размерности и изучения признаков.
  9. Deep Fake: Deepfake — это синтетические медиа, в которых человек на уже существующем изображении или видео заменяется чьим-то подобием. Термин «глубокие подделки» представляет собой комбинацию «глубокого обучения» и «подделки». Хотя создание ложного контента не является чем-то новым, дипфейки используют мощные методы машинного обучения и искусственного интеллекта для редактирования или создания аудио- и визуальной информации, которую легче обмануть.
  10. Переобучение: Проблема, которая может возникнуть в машинном обучении, когда модель слишком точно соответствует обучающим данным, что приводит к плохому обобщению новых данных.

Заключение:  

Это 10 популярных словечек и новых слов, относящихся к генеративному ИИ, искусственному интеллекту, который дал нам, казалось бы, бесконечные возможности.