Музыка искусственного интеллекта: Автоматическое создание музыки с помощью искусственного интеллекта | by Elena Andenko | NOP::Nuances of Programming

Содержание

Автоматическое создание музыки с помощью искусственного интеллекта | by Elena Andenko | NOP::Nuances of Programming

Раз уж мы в начале 2021 года, то должны затронуть тему, о которой много говорилось в последнее время. По мере того, как всё больше людей проводят время дома, создание, прослушивание и использование музыки в различных проектах приобретает большую значимость в их жизнях. Первые успехи в создании, производстве и редактировании музыки с помощью искусственного интеллекта ошеломляют и ещё сильнее ускорят эту тенденцию.

Однако автоматическая генерация музыки — довольно сложная задача по многим причинам. Больше всего мешает то, что простая трехминутная песня, которую группа людей может легко запомнить, содержит слишком много переменных для компьютера. Кроме того, пока не существуют идеального способа, как обучить искусственный интеллект быть музыкантом.

Да и сама цель для нас, разработчиков, тоже далеко не очевидна. Пытаемся ли мы создавать музыку из воздуха или на основе какой-либо формы вводных значений? Или мы хотим создать систему, которая могла бы сопровождать человека во время игры?

Я считаю, что в настоящее время для музыкантов нет причин переживать по поводу своих карьерных перспектив. Вряд ли искусственный интеллект полностью автоматизирует эту индустрию в 2021 году. Но создание музыки профессионального качества явно станет проще и дешевле в ближайшем будущем.

Давайте рассмотрим три компании, которые пытаются автоматически генерировать музыку, и оценим возможность того, что скоро специалисту по обработке данных будет вручена первая Грэмми.

OpenAI — одна из компаний, которую основал тот самый любитель оленей, изобретатель ракет и машин по имени Илон Маск. У OpenAI есть несколько творческих проектов, самый заметный из которых GPT-3, посвящённый литературе. Но как меломан я отдал особое место в своём сердце Jukebox.

«Мы представляем Jukebox, нейронную сеть, которая генерирует музыку, в том числе примитивное пение, в виде необработанного звука в различных жанрах и стилях исполнителей».
— OpenAI

Основная идея состоит в том, что они берут необработанный звук и кодируют его с помощью сверточных нейронных сетей (CNN). Представьте это, как способ сжать большое количество переменных до меньшего. Такая мера необходима, поскольку в звуке 44 100 переменных только в одной секунде, а в песне их много. Затем они производят процесс генерации этого уменьшенного набора переменных и распаковывают обратно до 44 100.

Упрощённая схема процесса с сайта OpenAI

Поп-песня в стиле Рика Эстли от Jukebox

Этот трек сгенерировал искусственный интеллект на основе предоставленных ему 10 секунд оригинальной песни.

ВНИМАНИЕ: сгенерированная часть начинается после 10 секунды.

Хотя в этой песне довольно много шума, очевидно, что это шаг в правильном направлении.

Являются ли перспективы OpenAI многообещающими?

Их самые последние открытия связаны с созданием музыки путём её преобразования в файл MIDI, который можно себе представить как ноты с грубыми инструкциями для музыкантов. Подробнее об этом в конце статьи.

Я считаю, что такой подход будет иметь довольно большой успех в ближайшем будущем. Ведь цель состоит в том, чтобы сгенерировать запись в формате MP3 на основе нот, как мне кажется.

Подходы AIVA и Jukebox к созданию музыки очень похожи: они работают с так называемым файлом MIDI (продолжайте представлять файл MIDI как ноты). Различаются они в базовой структуре данных, из которой генерируется музыка. Как мы видели на предыдущем примере, OpenAI берёт файл MIDI и создаёт продолжение этой аудиозаписи. AIVA же генерирует похожий, но совершенно новый фрагмент композиции.

Иными словами, мы загружаем песню в формате MIDI. И она обуславливает процесс создания новой композиции.

Скриншот программы AIVA

Я попробовал поэкспериментировать с двумя песнями: «Never Gonna Give you up» и «Super Mario Theme». После выбора одной композиции для обработки даётся несколько вариантов. К сожалению, на данный момент мы можем ограничиться только одной песней.

Скриншот AIVA: выбор параметров

Я решил создать по 3 композиции для каждой из оригинальных записей с продолжительностью менее 30 секунд. Я обнаружил, что AIVA очень хорошо работает с простой песней «Super Mario Theme» и довольно плохо с «Never Gonna Give you up», как будто её проигнорировали. Возможно, это связано с относительной сложностью трека. Оцените сами то, что вышло с «Super Mario Theme».

В целом я считаю, что этот инструмент может быть отличной отправной точкой для новых композиций и композиторов, но на этом этапе пока требуется ощутимая помощь человека для создания настоящей песни.

Совершенно другой подход использует компания Amper Music. Генератор Amper сам создаёт музыку и не позволяет человеку контролировать процесс. Это делается с помощью так называемых дескрипторов.

«Дескрипторы — это музыкальные алгоритмы, которые воспроизводят определенный стиль музыки. Один дескриптор может быть создан для исполнения нью-йоркского панк-рока, а другой — для спокойного пляжного фолка».
— Amper Music

При генерации можно выбрать два параметра: длину песни и набор характеристик для дескриптора. Я выбрал «игривый футуристический документальный фильм», и результат получился довольно милым и потенциально пригодным для использования. После этого предлагают выбрать набор инструментов, который ляжет в основу. Я остановился на вилках и ножах.

Скриншот Amper Music: выбор параметров

А вот и результат. Получилось круто. Мне кажется, это отличный мотив для документального фильма об игрушках для собак. При повторном выборе одного и того же набора параметров композиции могут оказаться довольно похожими, но только по задумке.

Применяемый в Amper подход скорее всего объединяет в себе два первых решения, и мне сложно рассуждать, как именно он работает.

Основная разница между AIVA и Jukebox в природе структуры данных (способе хранения музыки). Чтобы понять разницу между Jukebox и AIVA, сначала надо понять отличие аудиозаписи от стандарта MIDI. В нашем случае MIDI можно понимать как набор из нескольких лент для механического пианино (пианолы), где лента, по сути, представляет собой один инструмент.

Лента для пианолы — это одна из старейших специализированных структур данных. Её основа была заложена в 1896 году. Первоначально разработанная для автоматической игры на пианино, сегодня она служит холстом для музыки.

Лента для механического пианино

По оси X отображается время, а по оси Y — высота звука, на которой механическое пианино играет в данный момент (может включать несколько одновременно воспроизводимых звуков).

Сравнение: 1986 и сейчас. Изображение 1986 г. из Wikipedia.

Как вы можете себе представить, при таком подходе количество переменных гораздо меньше, чем в полной звуковой волне. Для ленты для пианолы у нас есть:

Высота звука * Количество голосов * Количество шагов квантования

Значит для минутной композиции нужно 4 голоса и высота звука 64, что является обычным параметром для машинного обучения. В результате получится примерно:

(400)*4*64 = 102 400 вероятностей

Отсюда: квантование 1/16, 100 ударов в минуту, все голоса моно, упрощённый расчет.

Для сравнения, оцифрованная звуковая волна с частотой семплирования 44 100 в течение 60 секунд приведет к:

(44 100*60)*16 = 42 336 000 вероятностей

Отсюда: частота семплирования 44 100, длина слова 16 бит и звук моно.

Этот упрощённый расчёт призван проиллюстрировать, что работать непосредственно со звуковой волной намного сложнее, если не вдаваться в подробности. Из-за дополнительных факторов работа со звуковой волной не терпит ошибок. Это хорошо видно на композиции от Jukebox, где присутствовал «шум». Такого бы не возникло при генерации в формате MIDI.

Основное преимущество работы с волной напрямую заключается в том, что модель искусственного интеллекта может также создавать звуки, не относящиеся к музыке, например человеческую речь. Теоретически можно достичь уровня записи голоса певца, если взять за основу звуковую волну.

Все 3 представленных решения имеют право на существование в музыкальной экосистеме искусственного интеллекта.

AIVA подходит музыкантам, которые хотят творить с помощью искусственного интеллекта и вдохновляться им.

Amper — это решение для создателей видео и специалистов по рекламе, которые стремятся найти простой звук, но при этом подходящий для использования в своих работах.

Jukebox от OpenAI — это исследовательский проект, цель которого — полностью изменить способ создания и прослушивания музыки. Хотя его потенциал велик, ещё предстоит увидеть, насколько далеко они смогут раздвинуть границы между искусственным интеллектом и музыкой.

Читайте также:

  • Как ИИ меняет сферу финансов
  • Лучшие фреймворки для ИИ и машинного обучения в веб-разработке
  • Глубокие нейросети: руководство для начинающих

Читайте нас в Telegram, VK и Яндекс.Дзен

Перевод статьи Sandro Luck: Automatic Music Generation using AI.

Как нейросети пишут музыку и составляют плейлисты — Нож

Взломать божественный код: кто и зачем использует ИИ в музыке

В конце 2019 года американская певица и электронщица Grimes заявила, что мы, похоже, живем в эпоху заката искусства — по крайней мере человеческого. «Как только действительно появится сильный искусственный интеллект, он будет значительно превосходить нас в создании произведений искусства», — сказала певица.

Спустя год Grimes написала бесконечную цифровую колыбельную для приложения Endel. Вернее, она предоставила только музыкальную основу, а искусственный интеллект приложения теперь непрерывно изменяет ее, подстраиваясь под время суток, погоду, передвижения и пульс конкретного пользователя.

«Мне кажется, в этом есть что-то по-настоящему магическое, — сказала Grimes, рассуждая об ИИ в интервью для The New York Times. — В этом будто бы сокрыт смысл Вселенной. Звучит абсурдно, но вы понимаете, о чем я? Может, мы взламываем божественный код или что-то в этом роде?»

Тизер бесконечной колыбельной Grimes

С не меньшим трепетом смотрит на искусственный интеллект певица и музыкальный продюсер Arca. Используя его, она создала сто вариантов своей песни Riquiquí.

«Это принесло мне облегчение и воодушевило: не всё еще сделано, горизонт возможностей широк», — призналась певица. Для нее сотрудничество с искусственным интеллектом — опыт освобождения. Вместо того чтобы принимать множество микрорешений, теперь она может просто создать музыкальную экосистему, в которой — благодаря ИИ — творчество происходит само и всегда приводит к неожиданному результату.

Один из ремиксов песни Arca Riquiquí

Другие артисты не только используют ИИ в своих песнях, но и дают ему право на самостоятельное высказывание. Так, ирано-британский электронщик Аш Куша создал виртуальную певицу Yona. Она пишет музыку и тексты песен, а затем сама исполняет их.

Песня виртуальной певицы Yona

Как отмечает Time, большая часть ее стихов туманны и бессмысленны, но иногда она выдает строчки вроде: The one who loves you sings lonely songs with sad notes.

По мнению создателя Yona, на такую прямоту и «эмоциональную обнаженность» не способны даже большинство людей.

Но Yona — не единственный ИИ-музыкант. Осенью 2019 года она выпустила два альбома в соавторстве с другими цифровыми артистами. А еще музыку пишет виртуальная инфлюенсерка Lil Miquela, у которой три миллиона подписчиков в инстаграме.

Клип виртуальной певицы Lil Miquela
Читайте также

Lil Miquela: виртуальная икона стиля завоевывает инстаграм

От компьютерной сюиты 1950-х до робота, пишущего под Баха: краткая история ИИ в музыке

Впрочем, всё это не так уж и ново. Первая композиция, сочиненная искусственным интеллектом, увидела свет еще в 1956 году. Два профессора Иллинойского университета Леджарен Хиллер и Леонард Айзексон использовали для этого университетский компьютер «Иллиак». Хиллер и Айзексон прописали правила, на основе которых машина сгенерировала код, переложенный затем на ноты. Результатом эксперимента стало четырехчастное произведение для струнных, которое Хиллер и Айзексон назвали «Сюита Иллиака».

«Сюита Иллиака»

В 1965 году на американское шоу I’ve Got a Secret, где звездное жюри угадывало секреты гостей, пришел семнадцатилетний Рэймонд Курцвейл, будущий изобретатель и футуролог. Он сыграл композицию на пианино — секрет был в том, что сочинил ее компьютер.

А в начале 1980-х увлекавшийся программированием композитор Дэвид Коуп начал работу над программой Experiments in Musical Intelligence (ЭМИ). ЭМИ должна была анализировать существующую музыку и создавать на ее основе новые произведения. На разработку ушло семь лет, но когда работа закончилась, ЭМИ за один день сочинила пять тысяч хоралов в стиле Баха.

В 1997 году Коуп представил слушателям три композиции. Одна была написана Бахом, другая — ЭМИ, третья — преподавателем музыкальной теории Стивом Ларсоном. Зрители должны были угадать, кому принадлежит каждое из этих произведений. Композицию, сочиненную Ларсоном, публика приняла за музыку искусственного интеллекта. Музыку ЭМИ — за Баха.

Фуга в стиле Баха, написанная ЭМИ

Сегодня ИИ пишет музыку к видеоиграм, сочиняет поп-песни в духе The Beatles и даже дописывает неоконченные пьесы умерших композиторов. Появляется всё больше стартапов, которые разрабатывают ИИ-сервисы для создания музыки (например, Amper Music, Popgun и AIVA). Но как работает музыкальный искусственный интеллект?

Обучающиеся нейросети и люди-редактора: как ИИ делает музыку

Большинство из этих систем используют глубинное машинное обучение, объясняет музыкант и журналистка Дени Дил в статье для The Verge. Проанализировав множество существующих композиций, система создает собственную музыку.

«По сути, ты скармливаешь программному обеспечению тонны оригинального материала, от танцевальных хитов до классики диско, а та старается найти в нем какие-либо закономерности, — пишет Дил. — Эти программы чувствительны к таким вещам, как аккорды, темп, длительность нот и их отношение друг к другу».

ИИ-сервис Jukebox переделал Smells Like Teen Spirit «Нирваны»

«Проблема данного подхода в том, что получающейся музыке не хватает структурированности, — рассказывает Валерио Велардо, эксперт в области музыкального ИИ и экс-глава компании Melodrive, которая до недавнего времени использовала ИИ для создания саундтреков к видеоиграм. — Музыка чрезвычайно сложна и многомерна, так что ты не можешь заставить компьютер написать ее, просто тренируя нейронную сеть на десяти тысячах или даже миллионе песен».

Поэтому для создания музыки машинное обучение нужно сочетать с музыкальной теорией, говорит Велардо. Например, если вы хотите создать алгоритм, который напишет произведение для целого оркестра, стоит подумать о его структуре, мелодии, инструментовке. Велардо добавляет:

«За все эти факторы не может отвечать один-единственный алгоритм».

Этого же метода придерживается и люксембургская компания AIVA, сочинившая саундтрек к видеоигре Pixelfield. За разные характеристики музыкального произведения — например, гармонию, темп и мелодию — в AIVA отвечают разные ИИ-системы. Вот что получается в результате:

Саундтрек ИИ к игре Pixelfield

«Мы спросили себя: „Какие структурные блоки нужны для создания цельной песни?“ — говорит глава AIVA Пьер Барро. — Начать можно, например, с мелодической линии. Затем, основываясь на ней, вы можете создать другую модель, которая сочинит инструментальный аккомпанемент для этой мелодии. Когда ты разбираешь целое на части, всё становится значительно проще».

Тем не менее логика, по которой ИИ создает музыку, все-таки отличается от человеческой. Ник Брайан-Киннс, специалист по машинному обучению в области музыки, поясняет:

«Проблема в том, что мы пытаемся научить ИИ создавать музыку, которая нравится нам, но не позволяем делать музыку, которая нравится ему».

Чтобы композиции, написанные искусственным интеллектом, звучали интересно для человека, ИИ все-таки нередко требуются живые редактора — по крайней мере, пока. «Можно скормить ИИ целый каталог с песнями Эми Уайнхаус, и на выходе получится много музыки. Но кто-то должен взять и отредактировать ее, — говорит Брайан-Киннс. — Кто-то должен решить, какие части ему нравятся, а над какими ИИ стоит поработать еще немного».

Талантливый соратник: как живые артисты смотрят на сотрудничество с ИИ

Гораздо проще работа искусственного интеллекта выглядит в глазах музыкантов, которые используют его для своих экспериментов. Очень простой интерфейс, например, у сервиса Amper Music. Чтобы ИИ сочинил для вас композицию, нужно просто создать новый проект, определить длительность трека, выбрать жанр, настроение и бит. Когда трек будет готов, вы можете вносить правки: например, поменять тональность или темп.

Вот, что получилось у меня.

Чтобы создавать музыку с помощью Amper, вам не нужно знать ни музыкальную теорию, ни основы композиции.

У американской певицы Тэрин Саузерн, по ее признанию, «нет традиционного музыкального бэкграунда». Но это не помешало ей выпустить в 2018 году целый альбом I AM AI, музыку для которого придумал искусственный интеллект.

«Обычно я находила красивый аккорд на пианино, — рассказывает Саузерн о том, как сочиняла до знакомства с ИИ, — и писала целую песню на основе этого аккорда, но не могла перейти к следующим нескольким аккордам, потому что не знала, как сыграть то, что слышала в голове».

Когда же она стала работать с Amper Music и другими ИИ-сервисами, процесс упростился. Теперь Саузерн сообщала ИИ, какой она видит будущую композицию, а он уже предлагал свои варианты. Саузерн могла отвергнуть тридцать версий, предложенных компьютером. Но когда он придумывал что-то, что действительно нравилось певице, она переносила получившиеся аудиодорожки в программу для создания аранжировок GarageBand, расставляла музыкальные фрагменты в нужном ей порядке и затем писала текст.

Песня Тэрин Саузерн, сочиненная в соавторстве с ИИ

Причем музыка ИИ была одним из источников вдохновения для текстов и вокальных партий, говорит Саузерн. Искусственный интеллект для нее — талантливый соратник: работа с ним очень напоминает певице взаимодействие с живым человеком.

Некоторые, впрочем, могут спросить: «А велик ли в итоге вклад самой артистки? Не жульничество ли это?» Саузерн уверена, что всё по-честному. Нет одного-единственного способа создавать музыку, считает певица, и через двадцать лет, предсказывает она, такое «программирование» песен будет общим местом.

ИИ как станок Гутенберга: какие еще есть музыкальные ИИ-сервисы и в чем они видят свою цель

«Мы открываем двери к самовыражению для миллиардов людей», — говорит глава Amper Music Дрю Сильверстайн. Для него музыкальный ИИ — сродни типографскому станку Гутенберга, благодаря которому мир однажды наводнился книгами и газетами. Только вот к книгопечатному оборудованию доступ имеется далеко не у всякого, а воспользоваться сервисами вроде Amper Music сегодня может кто угодно.

В демократизации песенного искусства видит свою цель и компания ALYSIA. Искусственный интеллект ALYSIA не только создает музыку, но и пишет тексты. «Люди, которые никогда прежде не сочиняли песен, могут попробовать себя в этом за считаные минуты», — поясняет создательница сервиса Майя Акерман, специалистка по информатике.

Но чтобы записанная композиция звучала одинаково хорошо и на дорогих колонках, и в дешевых наушниках, ей нужно пройти мастеринг. Зачастую это недешево. Сервис LANDR предложил музыкантам недорогую альтернативу: автоматический мастеринг с помощью ИИ.

А британский стартап Volchea создал программу, которая помогает транслировать музыку прямо из головы. Например, вы можете напеть в микрофон какую-то мелодию, а приложение превратит ее в звуки трубы.

Попробуйте набитбоксить ритмический рисунок — Volchea сделает из него партию для барабанов. Или просто настучите ритм карандашом по кружке.

Так звуки битбокса Volchea превращает в электронные

А если вам хочется сыграть с кем-то на пианино в четыре руки, на помощь придет искусственный интеллект Alice, созданный австралийским стартапом Popgun. Когда вы играете на пианино несколько нот, Alice, наученная на тысячах песен, сообразит, как подыграть вам. AI Duet — еще один похожий сервис. Чтобы понять, как это работает, просто попробуйте сами. Похожим путем пошел музыкант и программист Ден Тепфер: он научил акустическое пианино аккомпанировать ему.

Умное акустическое пианино подыгрывает музыканту Дену Тепферу

Ежедневно на стриминговых сервисах вроде Spotify появляются десятки тысяч новых песен. Редактора этих сервисов просто физически не успевают прослушать такое количество музыки. Но если треки не будут помечены тегами, указывающими, например, на их жанр, слушателям будет сложнее открывать для себя новую музыку. Сервисы типа Musiio способны прослушивать тысячи композиций и автоматически классифицировать их по жанру, настроению, темпу и другим характеристикам.

А на сайте издания Pudding в конце 2020 года появился музыкальный бот, оценивающий музыкальный вкус пользователей, — How Bad Is Your Spotify. По утверждению создателей, их нейросеть «обучалась на корпусе из более чем двух миллионов показателей объективно хорошей музыки, включая рецензии Pitchfork, рекомендации музыкальных магазинов и сабреддиты, о которых вы в жизни не слышали». Всё, что нужно сделать, чтобы ваш вкус разнесли в пух и прах, это предоставить сервису доступ к своему аккаунту в Spotify и, возможно, подождать — Spotify ограничил число пользователей, которые могут пользоваться ботом одновременно.

Сам Spotify использует ИИ, например, для создания персонализированных рекомендаций. А недавно стало известно, что компания хочет предлагать пользователям новую музыку на основе наблюдений за их эмоциями и окружающей обстановкой.

Для этого Spotify будет использовать голосовое распознавание. Сервису будет интересно, например, каков ваш возраст и пол, с какой интонацией и в каком ритме вы говорите, в одиночестве ли вы или на вечеринке и многие другие подробности вашей личной жизни.

Хотя описание новой функции звучит слегка антиутопично, в Spotify уверяют, что осознают ценность личной цифровой истории каждого из нас и обещают соблюдать моральные нормы.

Заменит ли ИИ живых музыкантов?

«Мы всегда смотрели на творчество как на последний бастион человечности», — говорит Сиаваш Махдави, глава одного из ИИ-стартапов AI Music. Сегодня музыканты выстраиваются в очередь, чтобы люди послушали их музыку. Последнее, чего они хотят, — это конкурировать с искусственным интеллектом, способным за секунду сочинить симфонию.

Многие музыканты со скепсисом относятся к ИИ, соглашается экс-глава Melodrive Валерио Велардо. Проблема в том, что они не очень хорошо понимают, чем занимаются компании вроде Melodrive. Но немало и тех, кто разбирается в теме и нуждается в искусственном интеллекте.

В Велардо ИИ придумывал музыку для видеоигр, которую композиторы потом дорабатывали, как им вздумается. Поскольку сочинители в этой области работают в условиях жестких дедлайнов, к сервисам вроде Melodrive они относятся с большой симпатией, уверяет Велардо, добавляя:

«Они понимают, что ИИ не отнимет у них работу, а просто станет еще одним инструментом».

Новые технологии нередко встречают с недоверием. «Возьмем для примера автотюн», — говорит Дрю Сильверстайн из Amper Music в одном из интервью. Когда он только появился, его применение вызывало споры, но сегодня это стандартный инструмент, который использует почти каждый артист. В другом интервью он замечает:

«Даже когда творчество ИИ и музыка, созданная людьми, станут неотличимы друг от друга, люди всегда будут ценить возможность посидеть в комнате с другим человеком и позаниматься искусством. Это часть нашей природы. И она навсегда останется с нами».

Искусственный интеллект еще долго не сможет делать музыку, которая трогала бы наши чувства, считает консультант в области музыкального бизнеса Марк Маллиган. «Когда ИИ научится имитировать человеческие эмоции, тогда последний рубеж будет преодолен. Но до этого еще очень и очень далеко», — говорит он.

Но даже такая имитация вряд ли сделает ИИ настоящим артистом. Алгоритмы глубинного обучения, натренированные на хоралах Баха, возможно, и могут делать музыку, которую даже эксперты порой принимают за истинного Баха, но это всего лишь мимикрия, рассуждает американский философ Шон Дорренс Келли. Подражать стилю мастеров и развивать его — это то, что артисты делают на ученическом этапе своей карьеры. Но вовсе не за это мы ценим композиторов вроде Баха или Арнольда Шенберга.

Шенберг стал великим музыкантом не потому, что он показал миру более быструю или совершенную версию произведений своего предшественника Оскара Штрауса. Он стал великим, потому что показал, что все двенадцать ступеней хроматического звукоряда могут быть равнозначны. Другими словами, он поменял само наше представление о том, какой может быть музыка, говорит Дорренс Келли.

Может быть интересно

Изящные речи чистого разума: может ли нейросеть быть художником?

Тем не менее ИИ вполне пригоден в качестве инструмента для творчества, считает философ. Подобно тому, как труба помогала джазовому музыканту Майлзу Дэвису создавать искусство, алгоритмы ИИ могут прийти на помощь современным художникам.

Сооснователь Amper Music Майкл Хоуб придерживается похожей точки зрения. Существующие сегодня алгоритмы он рассматривает не как искусственный интеллект, а скорее как дополнение, примочку к человеческому разуму. «Для меня речь о том, чтобы дать большему числу людей возможность проявить креативность, а тем, кто уже обладает какими-то творческими талантами, позволить по-настоящему продвинуться вперед», — говорит Хоуб.

Какое будущее ждет ИИ в музыке

Представьте, что вы едете в переполненном вагоне метро и злитесь, потому что опаздываете на работу. Крошечный биометрический гаджет над вашим ухом замечает вашу тревогу и включает песню вашего любимого артиста, но изменяет ее так, чтобы она звучала более мягко и спокойно. По обратной связи гаджет замечает меняет ваши биометрические показатели и продолжает менять композицию, чтобы ее эффект был еще более благотворным.

Таким недалекое будущее музыкального ИИ видит Анмол Саксена, глава стартапа Ashva WearTech, разрабатывающего «умную» одежду, например прибор, помогающий поддерживать осанку. «На мой взгляд, есть большая вероятность, что стриминговая индустрия попробует предлагать функции, которые будут считывать такие показатели организма, как пульс, уровень стресса, частоту дыхания, может быть, даже неврологические сигналы», — говорит Саксена.

На основе этой биометрической и психологической информации ИИ будет менять жанр, тональность, гармонию и другие характеристики песен в вашем плеере, чтобы вы чувствовали себя лучше. Это будет новая эра в персонализации музыки с помощью ИИ.

Читайте также

Нейросеть смогла распознать прослушиваемую песню по активности мозга

Экс-глава поглощенного тик-током стартапа Jukedeck Эд Ньютон-Рекс видит будущее ИИ похожим образом. На вопрос газеты The Guardian о том, смогут ли однажды программы, хорошо понимающие нашу психику, сочинять музыку, которая будет помогать нам засыпать, Ньютон-Рекс отвечает: «Безусловно. Это именно та область, в которой ИИ может быть полезен».

Впрочем, частично это будущее уже наступило. Похожими вещами занимаются в том же Endel, для которого Grimes написала бесконечную колыбельную. Endel, разрабатывающийся в том числе выходцами из России, еще не умеет использовать неврологические сигналы, но уже способен учитывать циркадные ритмы, уровень физической активности (определяемый по количеству шагов в минуту) и пульс (считываемый умным браслетом). На основе таких показателей приложение создает персонализированные звуковые пейзажи. По словам создателя Endel Олега Ставицкого, пользователи рассказывали о том, как оно помогало им в борьбе с ПТСР, бессонницей и звоном в ушах.

Кроме того, работа над ИИ может помочь нам понять, как мы сами сочиняем музыку, говорит Ньютон-Рекс: «Мы по-хорошему не знаем, как работает творчество. Но разрабатывая эти системы, мы начинаем задаваться вопросами о том, как аналогичные задачи решаются нашим мозгом».

Искусственный интеллект также может сильно разнообразить жанровый ландшафт музыки.

«Мне кажется, большого прорыва стоит ждать на пересечении различных музыкальных стилей», — говорит специалист по машинному обучению в области музыки Ник Брайан-Киннс. Ожидать, что живые музыканты будут смешивать большое количество разных стилей, не приходится. Но вот искусственный интеллект с легкостью может сочетать жанры в миллионах комбинаций, считает эксперт.

Впрочем, ИИ может порождать и проблемы. Как замечает Франсуа Паше, который проводит музыкальные эксперименты с искусственным интеллектом в Spotify, количество музыки, созданной ИИ, еще очень невелико по сравнению с интенсивностью исследований в этой области. Мы еще в самом начале.

Например, чем больше будет появляться музыки, сочиненной ИИ, тем больше будет и судебных тяжб. Существующие законы об авторском праве были написаны без учета искусственного интеллекта. Поэтому скоро нам придется разобраться, за кем признавать права на песню, сочиненную ИИ: за программистом, разработавшим нейросеть, за артистом, который использовал результаты ее работы в своем творчестве, за композиторами, на чьих работах ИИ тренировался, или за самим ИИ?

Может быть интересно

Искусство искусственного интеллекта: кого считать автором в эпоху творчества нейросетей

Другая проблема использования этой технологии в том, что нейросети становятся сегодня всё больше и потребляют огромное количество энергии, говорит Брайан-Киннс. Представьте, например, сколько электричества потребуется, чтобы ИИ проанализировал всю поп-музыку последних двадцати лет.

«В какой-то момент нам придется спросить себя, стоит ли эта новая музыка того воздействия на окружающую среду, которое окажет выработка нужного количества энергии», — предупреждает Брайан-Киннс.

Но если мы хотим развития музыкального искусственного интеллекта, нам придется найти удовлетворительные ответы на подобные вопросы. Ведь пока музыка ИИ далека от того, что мы привыкли добавлять в свои плейлисты. Алгоритмы еще недостаточно хороши, чтобы создать песню, услышав которую, мы бы сказали себе: «Буду, пожалуй, слушать это, а не Дрейка», объясняет Олег Ставицкий.

Тем не менее появление виртуального конкурента Дрейка, похоже, — только вопрос времени. Создатель Amper Music Дрю Сильверстайн заключает: «То, что музыка ИИ станет неотличима от человеческой, — неизбежно».

Музыка с искусственным интеллектом: 9 примеров, которые нужно знать От приложений для создания композиций и платформ для мастеринга до инструментов идентификации песен и персонализированных списков воспроизведения — искусственный интеллект меняет способ создания и прослушивания музыки.

AI Music

AI создает постоянно меняющиеся звуковые ландшафты, предназначенные для расслабления и сосредоточения, обеспечивает работу систем рекомендаций в потоковых сервисах, помогает плавно микшировать и мастерить аудио, а также создает музыку без авторских прав без проблем с авторскими правами. Он также развивается как композиционный инструмент: художники используют ИИ для создания новых звуков, полученных из всевозможных аудиовходов.

 

ИИ-музыка: искусственный интеллект, создание и композиция музыки

Спустя более 25 лет после смерти Курта Кобейна в сети появилась новая песня «Нирвана». Почему страшные цитаты? Трек на самом деле не был какой-то давно утерянной записью активной эпохи оригинального гранж-трио, обнаруженной в хранилищах. Названный «Утонувший на солнце», он был продуктом двух сред искусственного интеллекта: Google Magenta, которая использовалась для создания музыки на основе входных данных десятков оригинальных записей Nirvana, и нейронной сети, которая генерировала тексты, которые затем были произнес вокалист трибьют-группы Nirvana.

Трек действительно очень похож на Nirvana — динамика громко-тихо-громко, радостная игра на барабанах. Правда, звук немного грязный, но демонстрация генеративной сложности поразительна, — сказал Оливер Боун, автор книги Beyond the Creative Species: Making Machines That Make Art and Music .

«Он способен когерентно генерировать мультиинструментальное музыкальное произведение с метрической структурой, музыкальными фразами, смысловыми последовательностями, и все это с детализированной скоростью звука», — сказал он.

В то же время у мимикрии ИИ есть потолок интереса. Даже несгибаемые поклонники Битлз, вероятно, мало слушают «Daddy’s Car», сгенерированный искусственным интеллектом трек 2016 года в стиле Sgt. Пеппер . В этих примерах можно воспроизвести звук, но не то чувство новаторства, которое характеризовало художников.

«Нирвана была известна тем, что делала вещи иначе, чем раньше, но машинное обучение действительно хорошо справляется с тем, что люди уже делали раньше», — сказал Джейсон Паламара, доцент кафедры музыкальных и художественных технологий в Университет Индианы-Университет Пердью Индианаполис.

В то время как подобные треки с искусственным интеллектом попадают в заголовки, музыканты также используют искусственный интеллект для создания композиций способами, которые больше напоминают совместный, дальновидный инструмент, чем имитационную игру в салоне с ограниченной отдачей.

«Нирвана была известна тем, что делала вещи иначе, чем раньше, но машинное обучение действительно хорошо справляется с тем, что люди уже делали раньше».

Писатель Робин Слоан и музыкант Джесси Соломон Кларк недавно создали альбом с помощью Jukebox от OpenAI, который, как и Magenta, может прогнозировать продолжение музыкального фрагмента. Холли Херндон, 2019 г.Альбом Proto , описанный Vulture как «первый в мире массовый альбом, созданный с помощью ИИ», включал нейронную сеть, которая генерировала звуковые вариации на основе часов вокальных сэмплов.

«[Херндон] работает с ИИ как своего рода расширенный хор», — сказал Боун.

Вдохновленные этими приложениями, художники и технологи надеются на еще больший шаг вперед. Для таких экспертов, как Паламара и Роджер Данненберг, профессор компьютерных наук, искусства и музыки в Университете Карнеги-Меллона, святым Граалем искусственного интеллекта в музыке были бы модели, которые плодотворно сотрудничают с артистами в выступлениях в реальном времени. Вместо того, чтобы редактировать интересные фрагменты, предлагаемые моделью, которая поглощала множество обучающих данных, люди могли отталкиваться от музыкальных идей с помощью ИИ, точно так же, как басист и барабанщик в ритм-секции.

Существуют рудиментарные версии, но с множеством недостатков. По словам Данненберга, отсутствие сложных музыкальных интерфейсов в реальном времени означает, что простые детали для человека (такие как синхронизация и отслеживание ритма) являются серьезной проблемой для моделей. Ограничения данных также ярко выражены. Трек Nirvana основан на многочасовом прослушивании MIDI-данных, но живое выступление по сравнению с ним генерирует скудный звук. Так что для создания живой музыки «нужно немного приуменьшить», — сказал Паламара.

Тем не менее, сохраняется надежда на появление в недалеком будущем по-настоящему трансформирующего аккомпаниатора с искусственным интеллектом. «Это далеко не полный план, но он может иметь огромное влияние», — сказал Данненберг.

 

Примеры музыки с ИИ

В то время как продвинутый композиционный ИИ остается для многих наиболее интересным конечным продуктом ИИ в музыке, искусственный интеллект уже много лет влияет на музыкальную индустрию. Создаваемая искусственным интеллектом эмбиентная музыка осознанности, генерация музыки без авторских прав для создателей контента, а также автоматизированное микширование и мастеринг — все это превратилось в основные отрасли за последние пять лет или около того. И, конечно же, системы рекомендаций, впервые появившиеся в экосистеме потоковой передачи музыки, оказали большое влияние на все системы рекомендаций по продуктам.

Вот некоторые известные игроки.

AI Music Companies to Know

  • iZotope
  • Aiva Technologies
  • Amper Music
  • Brain.fm
  • LANDR

 

Founded: 2001 

Location: Cambridge, Massachusetts

Audio technology компания iZotope стала пионером в производстве музыки с помощью ИИ еще в 2016 году, выпустив Track Assistant. Функция микширования использует искусственный интеллект для создания пользовательских настроек эффектов на основе звуковой палитры данного трека. Сегодня он содержит полный набор помощников, которые адаптируют исходные предложения для вокальных миксов, применения реверберации и мастеринга. Из-за своего программного обеспечения и продуктов, ориентированных на ИИ, таких как Spire Studio, программное обеспечение iZotope использовалось для сведения и мастеринга записей такими артистами, как Бейонсе, Кендрик Ламар и Foo Fighters.

 

Основан: 2016

Местонахождение: Полностью удаленно

Aiva Technologies — создатель музыкального движка с искусственным интеллектом, создающего саундтреки. Платформа позволяет композиторам и создателям создавать оригиналы или загружать свои работы для создания новых вариаций. В зависимости от выбранного плана создатели также могут не беспокоиться о лицензировании, поскольку платформа предлагает полные права на использование. Вместо того, чтобы заменять музыкантов, Айва хочет улучшить сотрудничество между искусственным и органическим творчеством.

Получайте уведомления о вакансиях от Aiva Technologies

 

Основана: 2015

Местонахождение: Нью-Йорк, Нью-Йорк

Amper Music предоставляет музыкальный инструмент с искусственным интеллектом, который воспроизводит и сочиняет музыку на заказ. Веб-приложение позволяет создателям выбирать стиль композиции, настроение и продолжительность, создавая ее в соответствии со своим содержанием без дополнительных музыкальных знаний или навыков. Amper была приобретена Shutterstock в 2020 году, но ее программа Score по-прежнему доступна в виде инструмента на основе браузера и API. Он позволяет пользователям создавать собственные треки, созданные с помощью ИИ, менее чем за 10 кликов.

Получите предупреждение о работах от Amper Music

Подробнее на пользователях AIFOR, Better AI означает больше персонализации

Основан: 2003

Местоположение: Чикаго, Иллиной

Brain. fm — это веб -подача атмосферная музыка, которая способствует отдыху, расслаблению и концентрации. Музыкальный движок компании, созданный командой инженеров, предпринимателей, музыкантов и ученых, использует искусственный интеллект для аранжировки музыкальных композиций и добавления акустических функций, которые позволяют слушателям входить в определенные психические состояния. В пилотном исследовании, проведенном академическим сотрудником Brain.fm, приложение показало более высокие показатели устойчивого внимания и меньше блуждания ума, что привело к повышению производительности.

Получайте уведомления о вакансиях от Brain.fm

 

Основана: 2014

Местонахождение: Нью-Йорк, Нью-Йорк

LANDR — это творческая платформа, позволяющая музыкантам создавать свою музыку и продавать ее. Программное обеспечение для мастеринга компании использует искусственный интеллект и машинное обучение для анализа стилей треков и улучшения параметров на основе справочной библиотеки жанров и стилей. Помимо улучшенного мастеринга с помощью ИИ, Landr позволяет музыкантам создавать качественную музыку и распространять ее на основных потоковых платформах, избегая при этом затрат, связанных с профессиональной студией.

Получайте оповещения о вакансиях от LANDR

 

Основана: 2012 

Местонахождение: Сан-Франциско, Калифорния

Muzeek – это генерирующий музыку ИИ-алгоритм для создания персонализированного лицензированного музыкального видеоконтента. Платформа анализирует видео, сопоставляя длину и ритм, чтобы создать подходящие саундтреки для создателей, разработчиков или агентств, которым нужна оригинальная музыка профессионального качества. По мере того, как социальные сети и платформы обмена борются с нарушениями авторских прав, Muzeek предлагает новый способ легального соединения видео и музыки.

Получайте уведомления о вакансиях от Muzeek

 

Основана: 2000

Местонахождение: Окленд, Калифорния

Pandora — это персонализированный сервис потокового прослушивания музыки, основанный на предпочтениях пользователей и предпочтениях пользователя. Когда пользователи выбирают «палец вверх» или «палец вниз» в ответ на песни, интеллектуальная технология Pandora узнает больше об их симпатиях и антипатиях. Имея доступ к данным, полученным из 80 миллиардов избранных изображений, Pandora использует машинное обучение для еженедельного просеивания тысяч новых выпусков, помогая кураторам-людям находить новых художников и помогая обнаруживать поддельные.

Get Allerted для рабочих мест от Pandora

Подробнее о Music Innovation15 Компании, использующих блокчейн в музыке, чтобы изменить меняющуюся отрасль

Основан: 2017

Местоположение: Полностью Remote

с момента его запуска 2017 года под названием «Название» под названием «Название». «Popgun» Splash по-прежнему сосредоточен на объединении искусственного интеллекта и производства музыки в забавной и интуитивно понятной форме. Интеллектуальные цифровые инструменты Popgun, которые взаимодействовали с пользователями и друг с другом, уступили место игровым музыкальным инструментам Splash с искусственным интеллектом, которые нашли большую аудиторию в Roblox. Теперь компания стремится сосредоточиться на пересечении умной, удобной для пользователя музыкальной композиции и метавселенной.

Получайте оповещения о вакансиях от Splash

 

Основана: 2000

Местонахождение: Полностью удаленно

Shazam был доступен пользователям еще до появления ИИ в Apple App Store. Теперь приложение Shazam, принадлежащее семье Apple, использует интеллектуальную технологию для прослушивания и распознавания песен всего за несколько секунд. Он работает, беря цифровой отпечаток песни, сопоставляя его с огромной библиотекой музыки, которая ранее была отпечатана, и представляя соответствующую песню пользователям.

Получите предупреждение о рабочих местах от Shazam

Подробнее о примерах машинного обучения AI17. Ваша отрасль должна знать сейчас

Основан: 2013

Местоположение: Лос -Анджелес, Калифорния

. пользователи создают лупы и превращают их в полноценные треки. Пользователи могут получить доступ к плагинам предустановленных аудио, а затем настроить звуковые детали, такие как задержка, хорус, эхо и точность, прежде чем создавать трек. В последней версии также есть инструмент Kit Generator на базе искусственного интеллекта, который позволяет пользователям создавать полный комплект или набор звуков из отдельных аудиосэмплов. Технология Output поддерживает музыку таких исполнителей, как Дрейк и Рианна, и набрала 9 баллов.0015 Черная пантера и Игра престолов .

Получать оповещения о вакансиях из вывода

 

Стивен Госсет внес свой вклад в эту статью.  

Музыканты используют искусственный интеллект для создания новых песен, которые иначе были бы невозможны

В ноябре музыкант Граймс сделал смелое предсказание. «Я чувствую, что мы находимся в конце искусства, человеческого искусства», — сказала она в подкасте Шона Кэрролла Mindscape . «Когда на самом деле появится AGI (общий искусственный интеллект), они будут намного лучше создавать искусство, чем мы».

Ее комментарии вызвали ажиотаж в социальных сетях. Музыкант Зола Хесус назвал Граймса «голосом силиконовой фашистской привилегии». Фронтмен Majical Cloudz Девон Уэлш обвинил ее в том, что она смотрит на миллиардеров с высоты птичьего полета. Искусственный интеллект уже перевернул многие рабочие места синих воротничков в различных отраслях; возможность того, что музыка, глубоко личная и субъективная форма, также может быть оптимизирована, была достаточной, чтобы вызвать всеобщую тревогу.

Но есть много музыкантов, которые считают, что появление ИИ не положит конец человеческому искусству, а положит начало новой золотой эре творчества. За последние несколько лет несколько выдающихся артистов, таких как Arca, Holly Herndon и Toro y Moi, работали с ИИ, чтобы продвигать свою музыку в новых и неожиданных направлениях. Тем временем множество музыкантов и исследователей по всему миру разрабатывают инструменты, которые сделают искусственный интеллект более доступным для художников во всем мире. Хотя препятствия, такие как сложности с авторскими правами и другие препятствия, еще предстоит преодолеть, музыканты, работающие с ИИ, надеются, что технология станет демократизирующей силой и неотъемлемой частью повседневного музыкального творчества.

«Это дало мне чувство облегчения и волнения, что не все было сделано — что есть широко открытый горизонт возможностей», — сказал TIME по телефону Арка, продюсер, который работал с Канье Уэстом и Бьорк над новаторскими альбомами. интервью.

Искусственный интеллект и музыка уже давно неразрывно связаны. Алан Тьюринг, крестный отец информатики, в 1951 году построил машину, которая генерировала три простые мелодии. В 90-х Дэвид Боуи начал экспериментировать с цифровым рандомизатором текстов для вдохновения. В то же время профессор теории музыки обучил компьютерную программу написанию новых произведений в стиле Баха; когда публика слушала его произведение рядом с подлинным произведением Баха, они не могли отличить их друг от друга.

За последние несколько лет прогресс в музыкальной области ИИ резко ускорился, отчасти благодаря преданным исследовательским группам в университетах, инвестициям крупных технологических компаний и конференциям по машинному обучению, таким как NeurIPS. В 2018 году Франсуа Паше, давний пионер музыки с искусственным интеллектом, возглавил первый поп-альбом, написанный с помощью искусственного интеллекта, Hello, World . В прошлом году экспериментальная певица и автор песен Холли Херндон получила признание за альбом Proto , в котором она гармонировала с ИИ-версией самой себя:

Но хотя технология прошла долгий путь, многие говорят, что мы все еще далеки от ИИ, создающего хиты самостоятельно. «Музыка с искусственным интеллектом просто недостаточно хороша, чтобы создать песню, которую вы будете слушать и думать: «Я лучше послушаю это, чем Дрейка», — говорит Олег Ставицкий, генеральный директор и соучредитель Endel, приложения, которое генерирует звуковые среды. Показательный пример: «Daddy’s Car», песня 2016 года, написанная искусственным интеллектом, призванная имитировать «Битлз», представляет собой разочаровывающую смесь психоделических рок-троп, которые не могут собраться вместе осмысленным образом.

Возможно, отчасти из-за этих ограничений искусственный интеллект создает несколько прямолинейных поп-песен. Вместо этого гораздо более интригующий прогресс достигается в двух, казалось бы, диаметрально противоположных направлениях музыки: функциональном и экспериментальном.

Удовлетворение потребностей

С одной стороны, музыка с искусственным интеллектом стала ответом на простой запрос: требуется больше музыки, чем когда-либо, благодаря растущему числу создателей контента на платформах потокового вещания и социальных сетях. В начале 2010-х композиторы Дрю Сильверстайн, Сэм Эстес и Майкл Хоуб работали над музыкой для таких голливудских фильмов, как «9».0239 Темный рыцарь , когда они оказались завалены просьбами о простой фоновой музыке для фильмов, телепередач или видеоигр. «Было так много наших коллег, которые хотели музыку, которую они не могли себе позволить или на которую у них не было времени — и они не хотели использовать стандартную музыку», — говорит Сильверштейн.

Итак, трио создало Amper, который позволяет не музыкантам создавать музыку, указывая такие параметры, как жанр, настроение и темп. Музыка Ампера теперь используется в подкастах, рекламных роликах и видео для таких компаний, как Reuters. «Раньше видеоредактор искал фоновую музыку и останавливался на чем-то достаточном, — говорит Сильверштейн. «Теперь, с Amper, они могут сказать: «Я знаю, чего хочу, и за считанные минуты я могу это сделать». композиции Баха, созданной искусственным интеллектом, потребители не могли отличить музыку, написанную людьми, от музыки, написанной искусственным интеллектом Ампера.

Endel также был создан, чтобы удовлетворить современные потребности: персонализированные звуковые ландшафты. Ставицкий понял, что, хотя люди все чаще подключают наушники, чтобы провести день, «нет плейлиста или песни, которые могли бы адаптироваться к контексту того, что происходит вокруг вас», — говорит он. Его приложение учитывает несколько факторов в реальном времени, в том числе погоду, частоту сердечных сокращений слушателя, уровень физической активности и циркадные ритмы, при создании нежной музыки, которая предназначена для того, чтобы помочь людям спать, учиться или отдыхать. Ставицкий говорит, что пользователи успешно использовали Endel для борьбы с СДВГ, бессонницей и шумом в ушах; представитель компании сказал, что в конце января приложение было скачано миллион раз.

И Ампер, и Эндель превращают не-музыкантов в звуковых кураторов, позволяя им участвовать в процессе, от которого они могли быть отстранены из-за отсутствия подготовки или опыта. В этом году, по словам Сильверстайна, Amper запустит удобный для потребителя интерфейс, чтобы любой, а не только компании, мог использовать его для создания песен. «Миллиарды миллиардов людей, которые, возможно, не были частью творческого класса, теперь могут им стать», — говорит он.

Продвижение музыки вперед

Конечно, создание простых песенок или прославления белого шума сильно отличается от создания великой музыки. Это одна из главных проблем, которые многие беспокоят ИИ в музыке: он может сводить музыку к функциональным и общим звукам до тех пор, пока каждая песня не будет звучать более или менее одинаково. Что, если крупные лейблы будут использовать искусственный интеллект и алгоритмы, чтобы запихивать простейшие слуховые черви в наши ушные полости с сегодняшнего дня и до скончания века?

Но музыкант Клэр Эванс из лос-анджелесской электропоп-группы YACHT говорит, что трусливая оптимизация уже лежит в основе музыкальной индустрии: «Этот алгоритм существует, и он называется «Доктор Люк», — говорит она, имея в виду некогда вездесущий продюсер, который создает поп-хиты по определенным формулам. Таким образом, работа дальновидных музыкантов заключается в том, чтобы использовать технологию для прямо противоположной цели: бороться со стандартизацией и исследовать неизведанные территории, которые они не смогли бы открыть самостоятельно.

Для своего последнего альбома Chain Tripping компания YACHT обучила систему машинного обучения всему своему музыкальному каталогу. После того, как машина часами выдавала мелодии и тексты песен, основанные на том, что она выучила, группа отбрасывала их и соединяла самые интригующие фрагменты в связные песни. В результате получилась нервная и извилистая интерпретация танцевальной поп-музыки, которую было странно слушать и еще более странно играть.

«Мне кажется, музыканты часто недооценивают, насколько наша манера игры зависит от нашего физического опыта и привычек, — говорит Эванс. Она говорит, что группе потребовалось много мучительных часов, чтобы выучить новую музыку, потому что многие риффы или изменения аккордов лишь немного отличались от тех, на которые они полагались десятилетиями. «ИИ заставил нас столкнуться с шаблонами, которые не имеют никакого отношения к комфорту. Это дало нам возможность избавиться от собственных привычек», — говорит она. Результатом проекта стала первая за два десятилетия карьеры YACHT номинация на Грэмми за лучший иммерсивный аудиоальбом.

Для британско-иранского музыканта Эша Куша работа с ИИ по иронии судьбы привела к эмоциональному прорыву. Он разработал поп-звезду с искусственным интеллектом по имени Йона, которая пишет песни с помощью генеративного программного обеспечения. И хотя многие из ее текстов расплывчаты и бессмысленны, некоторые из них были шокирующе уязвимыми. Кушу особенно поразила строчка «Тот, кто тебя любит, поет одинокие песни с грустными нотами». «Быть ​​таким прямолинейным и таким открытым — таким эмоционально обнаженным — это не то, на что способен большинство людей», — сказал Куоша TIME. «Я бы не смог быть таким честным, если бы меня что-то не спровоцировало».

В Берлине хакерский дуэт Dadabots усердно работает, создавая музыкальный хаос и дезориентацию с помощью ИИ. Берлин стал одним из мировых центров экспериментов с искусственным интеллектом (здесь также базируется Endel), и Dadabots в настоящее время находится в резиденции, где они отрабатывают новые инструменты с авторами-авангардистами и проводят прямые трансляции дэт-метала, созданные искусственным интеллектом. Соучредитель Си Джей Карр говорит, что ИИ действует как тренер для музыкантов — «например, как шахматный ИИ может помочь вам улучшить вашу игру», — говорит он, — и грозный радикальный создатель. Нейронные сети дадаботов издают зловещий шепот, гортанный вой и яростно прерывистые барабанные партии. Для Карра чем страннее, тем лучше. «Когда музыка испорчена, это лучше для музыки», — говорит он. «Я хочу видеть выражения, эмоции и звуки, которых раньше никогда не было».

Для других создателей ИИ — это не только путь вперед, но и связь с забытым прошлым предварительно записанной музыки. Прошлым летом в сети появилась новая версия культовой классики 2012 года «Жасмин» Джая Пола. В то время как первые несколько тактов звучат так же, как и оригинал, трек постепенно начинает видоизменяться, со скользкими гитарными фразами и синкопированными хлопками в ладоши. Песня продолжается до тех пор, пока вы слушаете — напряженная группа, казалось бы, застряла в бесконечном, заразительном джем-сейшене.

Но трек сгенерирован искусственным интеллектом, проектом лондонской компании Bronze. Его создатели, музыканты Лекс и Гвилим Голд и ученый Мик Грирсон, надеялись создать технологию, которая вытеснит музыку из статичной и окаменевшей природы записей. «Мы хотели, чтобы люди слушали музыку в том же состоянии, в каком она была у нас в руках — в постоянной, развивающейся форме», — сказал Голд TIME.

Джай Пол делит лейбл XL с Аркой, одной из главных нарушителей поп-музыки (она работала над альбомом Канье Уэста Yeezus , Björk’s Vulnicura и FKA Twigs LP1 ). Когда уроженка Венесуэлы Арка узнала о работе Bronze, она была заинтригована тем, как она может беспрецедентным образом соединить живую и записанную музыку. «Когда вы публикуете альбом, люди будут слушать его всегда. Когда ты играешь песню вживую, она непредсказуема и эфемерна», — говорит она. «Работа с такими технологиями, как Bronze, позволяет реализовать третью вещь. Мы с Лекссом были очень взволнованы, обсуждая, что это значит для того, как люди могут слушать музыку, и для развития индустрии».

Arca и команда Bronze вскоре начали совместную работу над инсталляцией французского художника Филиппа Паррено, которая в настоящее время находится в недавно открывшемся вестибюле нью-йоркского Музея современного искусства. Музыка скрипит и бормочет из вращающихся динамиков, которые, кажется, движутся вместе с вами. Производительность меняется в зависимости от температуры и плотности толпы, а это означает, что два дня в космосе не будут одинаковыми.

Арка говорит, что слушать музыку, которую она якобы сочинила, — странный и захватывающий опыт. «Есть что-то освобождающее в том, что вам не нужно принимать каждое микрорешение, а скорее создается экосистема, в которой вещи имеют тенденцию происходить, но никогда не в том порядке, в котором вы их себе представляли», — говорит она. «Это открывает целый мир возможностей». Она говорит, что в этом году у нее будет несколько новых музыкальных проектов с использованием технологии Bronze.

В то время как такие создатели, как Arca, используют ИИ для продвижения творчества, многие опасаются, что эта технология вытеснит музыкантов с работы. Но Куоша говорит, что этот тип страха сопровождал каждое технологическое развитие прошлого века. «Это напоминает мне страх, который люди испытывали в 70-х — когда гитаристы начали движение ломать любой найденный синтезатор», — говорит он. В то время как некоторые гитаристы или барабанщики могли быть вытеснены, целое поколение домашних продюсеров выросло благодаря более низкому входному барьеру, и на первый план вышли хип-хоп, хаус-музыка и совершенно новые словари и звуковая эстетика.

А Франсуа Паше, директор исследовательской лаборатории Spotify Creator Technology, говорит, что мы все еще находимся на заре экспериментов с музыкой ИИ. «Количество музыки, создаваемой ИИ, очень мало по сравнению с исследовательской деятельностью», — говорит он. «Мы все еще в самом начале».

Когда будет выпущено больше творений ИИ, неизбежны юридические баталии. Существующие законы об авторском праве не были написаны с учетом ИИ, и в них крайне неясно, будут ли права на песню ИИ принадлежать программисту, создавшему систему ИИ, оригинальному музыканту, чьи работы предоставили обучающие данные, или, возможно, даже сам ИИ.