Музыка созданная искусственным интеллектом слушать: Слушайте первую песню, написанную искусственным интеллектом – Test Press

Искусственная музыка: зачем нам The Beatles, если есть ИИ

Rusbase

6 августа 2019

Слушать эту статью:

Аудио обработано сервисом БелаяТрость.рф.

Искусственный интеллект с каждым годом занимает все более уверенные позиции в самой человеческой из жизненных сфер – в искусстве. Мир музыки не исключение. Нейросети пишут мелодии и ежедневно учатся делать это всё лучше. Примеров AI-творчества сотни. Так, еще в 2017 году вышел альбом Hello World, полностью созданный искусственным интеллектом в коллаборации с живыми музыкантами. Певица Тарин Саутерн вместе с AI-алгоритмом Amper записала песню Break Free, а нейросеть от проекта Flow Machines в соавторстве с композитором Бенуа Карре сочинила Daddy’s Car, стилистически идентичную музыке The Beatles.

Да чего уж, искусственный интеллект покусился даже на святое – классику. Например, нейросеть AIVA за 72 часа завершила пьесу чешского композитора Антонина Дворжака «Из мира будущего», которая оставалась неоконченной 115 лет, Flow Machines имитируют Баха, а нейросеть «Яндекса»‎ вместе с композитором Кузьмой Бодровым сочинили пьесу, которую исполнил симфонический оркестр «Новая Россия» под управлением Юрия Башмета.

Однако пока искусственный интеллект творит не без помощи человека. Когда же нейросети начнут сочинять полноценную музыку самостоятельно? Rusbase пообщался с экспертами рынка и узнал, как творят нейросети, какую музыку точно заменит AI-музицирование и придется ли композиторам искать новую работу.

Как нейросеть пишет музыку?

В целом по тому же принципу, по которому искусственный интеллект творит любые другие виды искусств. Сначала нейросеть учится: для этого ей скармливают данные, то есть музыкальные произведения – и чем больше, тем лучше. Затем на основе изученного AI-разум пытается восстановить некую гармонию, схожую с той, что была услышана во время обучения. Пока в большинстве случаев получается совсем не номинант на Грэмми, но достойные звукосочетания найти можно. Именно о них как правило и рассказывают в новостях.

Александр Крайнов

руководитель Лаборатории машинного интеллекта компании «Яндекс»‎

Генерация произведения в формате midi

Описание и даже исходный код легко можно найти в интернете, воспользуясь которым любой толковый разработчик сможет написать нужную ему программу. Здесь нейросеть генерирует произведения в формате midi, разбитые на равные временные отрезки, в каждом из которых выделена основная нота. Похоже на то, как когда человек играет мелодию на фортепиано, тыкая пальцем в клавишу.

Для генерации таких midi алгоритм сначала пишет множество музыкальных произведений в сжатом цифровом виде, запоминает общие закономерности и в компактной форме записывает характерное для композиции уникальное свойство. Далее, применяя к полученным компактным представлениям знания о гармониях, нейросеть пытается восстановить произведение. С точки зрения человека, из 9/10 мелодий получается полная ерунда, которая звучит как какофония, а в 1/10 случаев – вполне приемлемая мелодия, с которой можно иметь дело. Но полноценной композицией она станет, только когда человек напишет к ней аранжировку.

Готовое музыкальное произведение

Более интересный подход с точки зрения разработки, над которым сейчас бьются все – как сделать так, чтобы на выходе было не midi, а готовое музыкальное произведение. Сложность в том, что на отрезке в несколько секунд получается сгенерировать что-то звучащее как настоящая музыка, но добиться так называемой консистентности, когда на протяжении всего произведения чувствуется связующая идея, пока не получается.

Идеальный результат – произведение, которое нельзя отличить от написанного человеком. Задача открытая, но в целом понятно, как ее решать, и, думаю, в течение года мы увидим какой-то результат.

И что, можно взять и записать
песню в любом стиле?

Да. Каждый музыкальный жанр имеет характерный набор инструментов, приемов аранжировки, особенностей мелодики, ритма, наиболее используемые лады, гармонические последовательности, – объясняет Станислав Бутовский, композитор, автор песен, саунд-продюсер. Говоря математическим языком, определенный набор параметров, задавая которые можно получить произведение в желаемом жанре. «Музыку и математику объединяет гораздо больше, чем может показаться на первый взгляд. Все, что касается формы и жанрово-стилистических признаков желаемого произведения, можно четко описать и представить в виде алгоритма».

Если машина обработает данные о, скажем, музыке Стивена Райха, Терри Райли, Владимира Мартынова и Филипа Гласса, то в результате мы получим произведение, состоящее из многократно повторяющихся паттернов, с небольшим количеством вариаций и инструментов, то есть музыку, известную как «минимализм». А если загрузить в машину весь каталог группы Любэ, то получим на выходе характерно звучащие песни с вполне определенным набором тем и инструментарием. Машине абсолютно все равно, какие данные обрабатывать и использовать, у нее нет вкусовых предпочтений.

Станислав Бутовский

композитор, автор песен, саунд-продюсер

Какое количество музыки может
придумать нейросеть?

Мелодий может быть бесконечное количество, – говорит Александр Крайнов, руководитель Лаборатории машинного интеллекта компании Яндекс. «Тут вообще никаких ограничений нет. Главное создать алгоритм, а он без проблем нагенерирует столько, что слушать замучаешься. Тут основной задачей станет выбрать лучшее».

Человек без музыкального образования тоже сможет писать музыку с помощью ИИ?

Есть разные точки зрения. Как правило, ответ зависит от того, кому мы его задаем: программисту или музыканту. Первые склоняются к тому, что для написания AI-музыки знание нот и способность играть на инструментах не особо нужны. Главное – умение работать с данными. Вторые же, напротив, считают, что выжать максимум из самых навороченных технологий сможет только человек с музыкальным образованием.

Александр Крайнов

руководитель Лаборатории машинного интеллекта компании «Яндекс»‎

Тут мы, в первую очередь, пляшем от умения обрабатывать данные. Знание предметной области вторично. Конечно, чтобы лучше понимать предметную область, мы общаемся с музыкантами и прислушиваемся к их мнению. Но быть музыкантом самому или обладать музыкальным слухом совершенно не обязательно. Например, в «Яндексе»‎ есть прогноз погоды. Люди, которые его создают, в большинстве своем не метеорологи. Быть метеорологом пригодится, но по сути можно получить результат, работая только с данными. Другой вопрос, что долго работая над какой-то задачей, тем же прогнозом погоды, люди начинают глубже разбираться в предмете. С музыкой то же самое.

Иван Ямщиков

AI-евангелист ABBYY

Писать музыку с помощью искусственного интеллекта или без него и так уже может любой. И для этого, конечно, не обязательно учиться годами в музыкальных школах. Sex Pistols или Dr. Dre вполне справились с музыкальной карьерой и без образования, так что тут появление ИИ ничего принципиально не меняет, просто даёт новых «красок» в музыкальную палитру. Желание и возможность творить не связаны с походами в музыкальные школы.

Станислав Бутовский

композитор, автор песен, саунд-продюсер

Начиная со второй половины XX века технологии активно пытаются сделать доступными массовому пользователю широкий выбор средств создания музыки. У любого подростка в ноутбуке может быть спрятан инструментарий симфонического оркестра, самые жирные хип-хоп биты и терабайтные библиотеки сэмплов для создания музыки в любых жанрах.

Все современные DAW (цифровая звуковая рабочая станция для создания и записи музыки) созданы так, что музыку можно собирать из составляющих как из кубиков: ты можешь не знать нот, не разбираться в теории, не уметь играть ни на одном музыкальном инструменте, но создашь из имеющихся компонентов простейшую композицию. Правда, скорее всего, звучать она будет посредственно, потому что не имеющий музыкального образования пользователь не сможет максимально использовать огромные возможности, которые сосредоточены в его компьютере.

Если на помощь приходит ИИ, то основная задача пользователя – грамотно сформулировать свои пожелания. Думаю, если вы скажете: хочу, чтоб было мелодично как у The Beatles, а по звуку как у Нины Кравиц, то, скорее всего, на выходе вас ожидает разочарование, так как результат будет звучать как фантастический уродец. Другими словами, для того, чтобы совместное с ИИ произведение было удачным, вы как хороший повар должны обладать знаниями о сочетаемости ингредиентов. А для этого и нужна музыкальная школа, где вас научат в том числе слушать, анализировать.

Нарушаются ли чьи-то авторские права,
когда мы обучаем нейросеть?

По мнению Александра Крайнова, руководителя Лаборатории машинного интеллекта компании «Яндекс»‎, ничьи права не нарушаются. «Предположим, я решил писать блюзовую музыку. Я послушаю сотню блюзовых композиций и потом напишу что-то свое. Должен ли я платить отчисления всем, чью музыку я слушал? Наверное, нет (ну не считая платы за прослушивание, там, где она нужна). Мы учим сеть базовым принципам, базовым гармониям в музыке. Чем больше произведений разных авторов, тем лучше. А уже обученная программа генерирует музыку быстро и в огромных масштабах, ей никто не нужен».

Где применяется ИИ-музыка сегодня
и какие у нее перспективы?

Наиболее вероятное будущее для музыкальных нейросетей – генерировать фоновую музыку там, где сама музыка не так важна: лаунж-зоны, рестораны, спортзалы. Еще один вариант применения – помощь музыкантам в поиске идей. «ИИ-инструменты могут стать средством преодоления writer’s block – то есть временного отсутствия идей, ступора в выборе художественных средств для решения задач и тому подобных утилитарных вещей», – говорит композитор Станислав Бутовский.

С ним согласен музыкант Данил Жданов, который отмечает, что некоторые композиторы используют нейросети в экспериментальном режиме, чтобы получать исходный материал для своих тем. «И в творческом плане этого вполне хватает. Правда, нейросети выдают много откровенно проходного и странного материала, так что композиторам приходится перерывать тонны исходников в поисках жемчужин».

Данил Жданов

совладелец студии звукозаписи 1961 Studio,
музыкант и композитор, профессиональный маркетолог

Есть и другое применение, очень интересное в коммерческом плане. Например, если у нейросети будут какие-то ручки управления, человекопонятный интерфейс, с помощью которого даже абсолютно не разбирающийся в нотной грамоте и композиторстве клиент сможет сгенерировать музыку и накрутить нужный темп, стиль и переходы, то получится нечто вроде «конструктора музыки».

Представьте: нужна вам музыка для рекламы. Что вы делаете обычно? Идете на стоки или заказываете ее у музыкантов. А тут зашли в личный кабинет, выбрали нужное настроение и стиль (скажем, мечтательный фьюжн), нажали кнопку – и получили несколько вариантов уникальных треков. Такую систему предлагают коллеги из Ampermusic. Насколько она жизнеспособна, пока сложно судить. И справедливости ради надо сказать, что и у Ампера используется не «чистый ИИ», то есть на выходе получается произведение, в котором уже сильно поучаствовал человек.

Генератив не отличить от музыки, созданной людьми в сфере easy-listening музыки: фон для работы, учебы, медитаций, спорта и практик. Также большой потенциал в коммерческом использовании генеративной музыки: хорека, игры, приложения, которым нужна фоновая музыка, но не важен источник ее производства.

Алексей Кочетков

основатель Mubert Inc.

Кто напишет произведения, которые остануться в веках и будут считаться шедеврами? Весьма вероятно, что человек. Потому что для шедевра нужно что-то большее, чем подражательство. Но нейронная сеть без проблем будет в больших объемах генерировать базовую музыку. Вроде фоновой в лаунж-зонах или негениальной попсы.

Александр Крайнов

руководитель Лаборатории машинного интеллекта компании «Яндекс»‎

Кто решает, что трек хороший?

Только слушатель. В любом произведении главное – эмоция, которая донесена и получила отклик, говорит композитор Станислав Бутовский. «Именно такое определение безотносительно вкусовых предпочтений соответствует понятию «хорошая музыка». Если нет резонанса с собственным опытом слушателя или его переживаниями, произведение останется незамеченным. Примером служит огромное количество произведений, ежедневно выкладываемых в сеть, но сколько из них на самом деле находит свою аудиторию? Слушателю в целом неважно, кто написал музыку или как она была написана, важно воздействие, которое она оказывает на его чувства».

Как ИИ-музыка может себя монетизировать?

Пока непонятно. Александр Крайнов, руководитель Лаборатории машинного интеллекта компании «Яндекс»‎, указывает на работающее правило: «Если у вас есть огромное количество пользователей, то монетизация придет. Та же реклама. Была бы музыка». Напротив, музыкант и композитор Данил Жданов говорит, что у музыки, написанной без применения человеческого умственного труда, есть только один способ монетизации – в качестве «сервиса идей» для композиторов. «Транслировать ее в неизменном виде конечному потребителю – не сильно гуманная идея».

Цену создает спрос, а не время создания чего-либо. Скорость создания контента здесь играет ключевую роль в положительной монетизации. Слушателю не всегда важен источник контента. ИИ написал трек или знаменитый артист – если он звучит в эфире, значит, его можно монетизировать. При этом стоимость в производстве отличается на несколько порядков.

Алексей Кочетков

основатель Mubert Inc.

Кому будут принадлежать права на такую музыку?

Здесь возможно минимум три варианта. По мнению Александра Крайнова, руководителя Лаборатории машинного интеллекта компании «Яндекс»‎, права могут принадлежать либо тому, кто услышал и выбрал музыку, либо никому. «Пользуйтесь кто хотите. Права на нечто, созданное инструментом, принадлежат тому, кто им пользовался. Не тому, кто делал инструмент».

А музыкант и композитор Данил Жданов, напротив, считает, что результат работы нейросети может принадлежать ее владельцам. «Правовые концепции в отношении нематериальных активов, которые распространяются на музыку и программное обеспечение, применимы и к музыке, сгенерированной искусственным интеллектом», – говорит эксперт.

Раньше люди росли на музыке, созданной человеком. Что будет с теми,
кто растет на ИИ-композициях?

Иван Ямщиков

AI-евангелист ABBYY

Мне трудно представить ребенка, который воспитан только на музыке, написанной искусственным интеллектом. Ведь появление новой генеративной музыки никак не отменяет огромное количество других прекрасных произведений, созданных человеком в разные времена и эпохи. С появлением рока, регги, дабстепа и других жанров люди не перестали слушать классику.

Если «расти на музыке» означает пробовать слушать разное, вдумываться и разбираться в новых композициях, расширять музыкальный кругозор, то здесь искусственный интеллект будет только помогать. Хороший рекомендательный алгоритм, скорее всего, поможет ребёнку более широко изучить направления музыки, которые ему нравятся, и составить о них более глубокое представление.

Композиторы больше не нужны?

Представители рынка уверяют, что для лучших композиторов ничего не поменяется. «Результат работы нейросети может стать отправной точкой, основой, над которой можно творить, – говорит Александр Крайнов, руководитель Лаборатории машинного интеллекта компании «Яндекс»‎. Эксперт приводит пример. «Если попросить вас написать небольшую повесть. Сложно начать? А если так: три молодых друга приехали в небольшой город поздно вечером, один из них раньше жил там, но с детства не был, они заходят в бар и девушка-бармен узнала одного из них, но не того, кто раньше жил в этом городе, а его спутника. Проще?» Кажется, да.

Александр Крайнов

руководитель Лаборатории машинного интеллекта компании «Яндекс»‎

Нейросеть может дать некое ограничение и начало, триггер, который вызывает к жизни вашу творческую составляющую. Дальше можно домыслить, придумать сюжет, добавить персонажей. Нейронная сеть для композитора делает то же самое. Новый композитор будет запускать ее как инструмент, будет много прослушивать, что-то выбирать и дальше работать с понравившимся материалом.

Иван Ямщиков

AI-евангелист ABBYY

Как появление миди-клавиатур не значит, что больше не нужны рояли, а появление цифровых синтезаторов не значит, что больше не нужны аналоговые. Роботы-композиторы, основанные на алгоритмах глубокого машинного обучения, удачно воссоздают или имитируют существующий опыт – произведения в духе того или иного «живого» исполнителя.

Мы с Алексеем Тихоновым в Creaited Labs работаем над алгоритмами, которые пишут музыку, к примеру, создали стилизацию Скрябина для открытия Yet Another Conference 2017. Люксембургская компания AIVA Technologies создала нейросеть, которая помогла сочинить заключительную часть неоконченной пьесы Дворжака «Из мира будущего». На недавно прошедшем в Петербурге фестивале Gamma музыку создавали сами музыканты, а ИИ выступал лишь как еще один инструмент. Поэтому, в целом речь идет не о вытеснении, а о творческом применении новых технологий.

Какие проблемы есть у ИИ-музыки сейчас?

Одни эксперты указывают на чисто технические вопросы. Например, что AI-музыка пока не звучит как нечто, созданное человеком. «Но только потому, что алгоритм еще не довели до совершенства, – подчеркивает Александр Крайнов. Кто-то считает, что распространению ИИ-музыки мешает консервативность публики. «Проблемы – ложные суждения, предвзятое отношение, нежелание менять устоявшееся мнение, – говорит Алексей Кочетков, основатель Mubert Inc. – Их решит время и устойчивое развитие генератива».

Другие подходят к вопросу философски. Так, музыкант и композитор Данил Жданов отмечает, что человеческий мозг не привычен к структурам и последовательностям, которые предлагает нейросеть. «Даже если полученные ноты озвучены натуральными семплами и мы не слышим разницу с живым музыкантом, ИИ не достает понятий о тонкой жанровой классификации и особенностях исполнения всего многообразия музыкальных приемов. Музыка, которая генерируется без участия человека, получается безэмоциональной, не может работать в качестве триггера настроения. Решение этой проблемы, как мне видится, одно – искусственному интеллекту нужны учителя, которые будут воспитывать в нем музыкальный вкус и, что самое сложное, заставят его испытывать эмоции».

Лера Рессер

музыкант

На мой взгляд, будущее ИИ невозможно без включения в концепцию человека как «потребителя» генеративной деятельности ИИ. Например, с точки зрения этики – у творца есть чувство ответственности за свою деятельность. Что на месте ответственности у ИИ? Или с точки зрения культурного кода – возможен ли настоящий диалог между «искусственным творцом» и его аудиторией? Как люди будут интерпретировать музыку, закономерности развития которой им не предугадать? Смогут ли люди исполнять такую музыку?

И дело не в нашей готовности к такому музыкальному продукту. Дело в том, «чему мы учим ИИ». Процесс принятия решения человеком сильно отличается от этого же процесса у ИИ. Человек социален на гормональном уровне, ИИ – нет. Недостаточно научить ребенка правилам поведения – если у него не развита способность к эмпатии, правила не будут значить ничего. Разница между «правильным» поведением и поведением, продиктованным сопереживанием, может быть колоссальной, а может и не быть, потому что это в первую очередь разница в способе принятия решения. Как включить этот многогранный «социальный фактор» в работу ИИ – вот в чем вопрос.

Осталось еще что-то, что неподвластно ИИ?

Способность мыслить творчески, фантазировать, отступать от шаблонов и вызывать эмоции – главные умения, которые отличают реального музыканта от искусственного.

Станислав Бутовский

композитор, автор песен, саунд-продюсер

Любая машина, даже которая способна гармонично комбинировать последовательности нот, выстраивать из них композиции и аранжировать, действует согласно прописанному алгоритму. И не делает отступлений. У машин отсутствует фантазия, то есть способность создавать немыслимое ранее. Машины пока на умеют креативно применять опыт наблюдения из других сфер жизни для создания музыки. Кроме того, создаваемые ими произведения, эмоционально не окрашены. Эмоциональную окраску этим произведениям способен дать только исполнитель музыки – человек.

Данил Жданов

совладелец студии звукозаписи 1961 Studio, музыкант и композитор, профессиональный маркетолог

Кроме нот музыка содержит много другой информации: стиль, динамика, особенности интонации и даже сочетания обертонов, участвующих в произведении инструментов. Из-за такого разнообразия информации, закодированной в произведении, у стерильного ИИ есть очень мало шансов самостоятельно создать нечто, что не будет звучать как минимум странно… По крайней мере, при сегодняшнем уровне развития технологий. Я уж не говорю про генерацию голоса для пропевания песни, представьте себе поющего робота! Экспрессия будет, мягко говоря, нечеловеческая.

ИИ хорошо себя показывает как генератор идей, коротких музыкальных фраз и даже мелодий. Но для того, чтобы это все стало завершенным треком, без работы композитора и музыкантов не обойтись. Они берут сгенерированные ИИ кирпичики и строят из них произведение, по пути добавляя свое собственное творчество. Только тогда эта музыка сможет выполнить главную задачу – вызывать эмоции и создавать настроение.

Чему учиться, чтобы быть востребованными
в ИИ-мире?

Машинной музыки неизбежно станет больше. Поэтому музыкантам и композиторам лучше уже сейчас прикинуть, чему новому они могут научиться, чтобы в будущем оставаться на плаву. Основной совет – развивать в себе все человеческое. Среди вещей, которые точно не повредят, эксперты называют желание работать в команде с искусственным разумом, умение рассуждать и задавать вопросы, стремиться постигнуть суть мироздания. Именно такие служители Эвтерпы продолжат будоражить умы и сердца людей. Интересуйтесь миром, копите знания, развивайте эмпатию и эмоциональный интеллект, и тогда искусственный разум встанет на вашу сторону.

Станислав Бутовский

композитор, автор песен, саунд-продюсер

Никаких специальных навыков не требуется, достаточно понимания того, как ИИ работает. Главное быть открытым к взаимодействию с ИИ на разных стадиях процесса создания музыки. Фактически перед композитором открываются бесконечные возможности использовать весь накопленный человеческий опыт, все зависит от того, насколько он готов довериться машине и каковы для конкретного композитора допустимые границы вмешательства ИИ в процесс.

Иван Ямщиков

AI-евангелист ABBYY

Думаю, что любому художнику, чтобы быть востребованным, нужно задавать вопросы, которые резонируют в душах его современников, а какими средствами он эти вопросы задаёт, использует при этом искусственный интеллект или нет, это не так уж важно. Музыканту или композитору не обязательно заниматься разработкой самому, так же как он не обязан сам производить скрипки, гитары или барабанные установки, чтобы играть на них и сочинять с их помощью музыку.

В большинстве известных музыкальных проектов последнего времени с применением ИИ так и происходит: технические специалисты создают нейросеть, а артисты использовали ее возможности для творчества. В качестве примера приведу новый альбом Холли Херндон PROTO: последние два года для него собирали записи различных звуков и голосов, которые стали данными для обучения нейросети, использованной для создания альбома.

Материалы по теме:

Пять технологий, которые изменят сферу культуры и искусства

Дышащие куклы, VR и нейросети-сценаристы — как технологии меняют индустрию кино

В сети появляется все больше статей, написанных ИИ. Заменят ли роботы живых журналистов?

Люди больше не нужны: роботы тоже займутся искусством

Модный интеллект: какие профессии из мира fashion заменит AI-разум

© Rusbase, 2019
Автор: Зинаида Кунаковская

Фото на обложке: ArturVerkhovetskiy, Depositphotos

Композитор Журбин оценил законченную ИИ симфонию Бетховена

Композитор Журбин оценил законченную ИИ симфонию Бетховена — Газета. Ru

Посол РФ в Таджикистане: такими матчами встает идея перехода России из УЕФА…
20:40

В Севастополе мать двоих детей заразила гробовщика ВИЧ, он решил продолжить жить…
20:38

AT: БРИКС и другие страны пытаются найти возможность обойти долларовую систему
20:38

Белый дом: США возлагают на Россию ответственность за ракетный инцидент…
20:36

Зеленский заявил, что Украина непричастна к падению ракеты в Польше
20:36

Financial Times: генсеком НАТО не хотят видеть выходца из СССР
20:25

Онколог Машкова назвала родинки на стопах, ладонях и слизистых самыми опасными
20:21

Балтфлот провел бросковые испытания на корабле-носителе «Калибров»
20:17

МИД РФ: Москва ждет от Варшавы прекращения «антироссийских спекуляций»
20:16

Карпин рассказал, кого не будет вызывать в сборную
20:15

Культура

close

100%

Искусственный интеллект закончил десятую симфонию Бетховена. Разработчик потратил на создание алгоритмов десять лет. «Газета.Ru» поговорила с композитором Александром Журбиным о том, сможет ли нейросеть полностью заменить человека в музыке.

В Швейцарии исполнили написанную искусственным интеллектом (ИИ) десятую симфонию Бетховена. Ранее произведение существовало лишь в набросках композитора. Нейросеть ANN дописала реконструированную композицию, изучив гармоническую и мелодическую структуру творчества Бетховена. Пьесу, созданную ИИ, разработчик Флориан Коломбо назвал BeethovANN Symphony 10.1. На создание алгоритмов он потратил десять лет.

Идея проекта состояла в том, чтобы «просто по нажатию кнопки» создать полную музыкальную партитуру для всего симфонического оркестра. Но, согласно задумке, это не должно отстранять людей от творческого процесса.

«В симфонии есть что-то от Бетховена, но все-таки это BeethovANN. Нам открывается что-то новое», — сказал Коломбо.

Композицию исполнили на концерте в Лозанне. По данным News 24, музыканты во время репетиции были удивлены, насколько гармоничным вышло произведение, написанное ИИ. Однако французский дирижер Гийом Берни, который руководил оркестром, отметил, что некоторые фрагменты все же не соответствовали стилю Бетховена. По его мнению, эксперимент удался, но созданной нейросетью музыке не хватило гениальности.

Разработчик нейросети ANN Коломбо объяснил, что для эксперимента использовались алгоритмы глубокого обучения, которые имитируют работу человеческого мозга. Для реализации задуманного он загрузил все 16 струнных квартетов Бетховена, чтобы ИИ познакомился с «манерой» композитора. Дополнительно в компьютер были загружены оригинальные наброски к партиту десятой симфонии.

В разговоре с «Газетой.Ru» советский и российский композитор, член Союза композиторов Александр Журбин отметил, что ИИ все-таки не сможет точно воссоздать произведение Бетховена. По его мнению, реконструкция делается скорее для рекламы или в качестве эксперимента.

«Искусственный интеллект уже давно сочиняет музыку. Я видел такие приборы, которые могут написать музыку в стиле Моцарта, Бетховена или Брамса, — кого хотите. И, конечно, они это делают, но плохо. Это не сравнится с человеком и его талантами, которых искусственный интеллект не удостоен.

Когда делается реконструкция 10-й симфонии Бетховена — это больше реклама, промоушен. Эта музыка не будет на уровне Бетховена. В конце жизни сам Бетховен уже был не Бетховеном, а Бетховеном в третьей степени. Он очень сильно преобразился к концу жизни», — поделился мнением композитор.

Журбин также рассказал о других случаях, когда неоконченные произведения композиторов дописывались нейросетью. Однако в ближайшее время, по его мнению, ИИ не сможет посоревноваться с гением человека.

«Конечно, это интересный эксперимент. Есть несколько случаев, когда композиторы заканчивали неоконченные произведения. Скажем, знаменитая симфония Шуберта, которую записывали уже десятки композиторов и, наверное, компьютеры тоже. Хотя все понимают: она не окончена не потому, что Шуберт внезапно умер. А потому что он считал, что этого достаточно. Конечно, это было фиаско. В принципе, я отношусь к ИИ с некой иронией, ведь ему пока не достичь того, что достигает человек», — заключил Журбин.

Подписывайтесь на «Газету.Ru» в Новостях, Дзен и Telegram.
Чтобы сообщить об ошибке, выделите текст и нажмите Ctrl+Enter

Новости

Дзен

Telegram

data-id=»1800474″>

Картина дня

Военная операция РФ на Украине. День 266-й

Онлайн-трансляция военной спецоперации РФ на Украине — 266-й день

«Все просочилось в газеты. Это неуместно». Как западные лидеры «сливают» переговоры

Глава КНР Си Цзиньпин раскритиковал канадского премьера Трюдо за утечку их разговора в СМИ

«Ушла на самоликвидацию». Откуда прилетела ракета, убившая двух человек в Польше

CNN: Украина признала использование ПВО рядом с местом падения ракеты в Польше

Зеленский заявил, что Украина непричастна к падению ракеты в Польше

Financial Times: генсеком НАТО не хотят видеть выходца из СССР

МИД РФ: Москва ждет от Варшавы прекращения «антироссийских спекуляций»

В США обвинили Киев в поставке Баку боеприпасов с белым фосфором для войны в Карабахе

Новости и материалы

Посол РФ в Таджикистане: такими матчами встает идея перехода России из УЕФА в АФК

В Севастополе мать двоих детей заразила гробовщика ВИЧ, он решил продолжить жить с ней

AT: БРИКС и другие страны пытаются найти возможность обойти долларовую систему

Белый дом: США возлагают на Россию ответственность за ракетный инцидент в Польше

Онколог Машкова назвала родинки на стопах, ладонях и слизистых самыми опасными

Балтфлот провел бросковые испытания на корабле-носителе «Калибров»

Карпин рассказал, кого не будет вызывать в сборную

Власти: замглавы Херсонской области Губарева покинула регион после референдума

«Зенит» обыграл «Факел» и поднялся на 2-е место в группе Кубка России

Зеленский сообщил о встрече с вице-президентом Всемирного банка

Город Медиаш в Румынии останется без газа и света на три дня в рамках учений

Ученые нашли новый способ остановить следующую пандемию

В ФТР назвали главный фактор проигрыша Рублева Джоковичу

В США автомобиль сбил группу новобранцев полиции во время пробежки

Владелец «Вкусно — и точка» покупает активы логистической компании Havi Россия

Вучич подтвердил планы строительства ответвления от «Дружбы»

В Курской области во время ДТП из машины вывалились торты

Ракетные катера и малые ракетные корабли Балтфлота обстреляли учебные мишени из артиллерии

Все новости

«С вечера не выходила на связь». Что известно об исчезновении замгубернатора Херсонской области

ТАСС сообщило о задержании замглавы Херсонской области Губаревой по «экономическому» делу

«Автомобили должны стать более доступными». Путин попросил не завышать цены

Путин поддержал идею Мантурова распространить льготное автокредитование на военнослужащих

«У египтян не в традициях признавать свои ошибки»

Как Египет после революции потерял миллиарды, выбирая между исламистами и туристами

«Киев будет получать вооружения». В НАТО назвали способ добиться переговоров о мире

Генсек НАТО связал исход переговоров по Украине с успехами ВСУ на поле боя

Правда или вымысел: какой получилась драма «Чудо» с Флоренс Пью

Рецензия на загадочную драму «Чудо» с Флоренс Пью

Самые ненадежные автомобили, которые дилеры везут в Россию

Журнал Consumer Reports составил антирейтинг самых ненадежных автомобилей

«Любовные письма музе». Белла Хадид и Эмили Ратаковски – в новом календаре Pirelli

Интервью с Викторией Талышинской — о группе «2 ОКеана» и уходе из «Непары»

Виктория Талышинская ответила на критику бывшего коллеги по группе «Непара» Шоуа

«Назло невзгодам, назло врагам». Москвичи голосованием решат, украшать ли столицу на Новый год

Собянин предложил москвичам проголосовать по вопросу празднования Нового года

«Никогда не нужно спешить с оценками». Песков похвалил США за реакцию на инцидент с ракетой в Польше

Песков отметил сдержанную реакцию США на падение обломков ракеты на востоке Польши

NASA запустило корабль с дрожжами к Луне. Спустя два года туда должны полететь люди

США отправили на Луну сверхтяжелую ракету SLS в рамках миссии «Артемида»

«Мы с вами уже как шпионы». ФСБ сообщила о задержании гражданки Польши за взятку

ФСБ сообщила о задержании гражданки Польши со статусом дипломата за взятку

Падение ракеты в Польше. Что говорят в России и странах НАТО

Байден и Эрдоган заявили, что упавшая в Польше ракета вряд ли была российской

Марина Ярдаева

Хотеть не вредно

О тех, кому достаточно три аршина земли

Юлия Меламед

Журналист глобус пропил

Об экопарк-отелях и русских памятниках в России и Европе

Георгий Бовт

Не догонишь – не похоронишь

О том, как мы хотели перегнать Америку, но потом передумали

Алексей Мухин

Хромая утка по-пекински

О возможном конфликте США и Китая

Мария Дегтерева

Там чудеса, там леший бродит

О бюрократии и чиновничестве в России

—>

Читайте также

Найдена ошибка?

Закрыть

Спасибо за ваше сообщение, мы скоро все поправим.

Продолжить чтение

Jukebox

Кураторские сэмплы

Получив информацию о жанре, исполнителе и тексте на входе, Jukebox выводит новый музыкальный сэмпл, созданный с нуля. Ниже мы покажем некоторые из наших любимых образцов.

Чтобы прослушать все неотобранные сэмплы, воспользуйтесь нашим проводником сэмплов.

Посмотреть все образцы

Содержание

  1. Мотивация и предшествующая работа
  2. Подход
  3. Ограничения
  4. Будущие направления
  5. Хронология

Мотивация и предыдущая работа

История автоматического создания музыки насчитывает более полувека. Известный подход состоит в том, чтобы генерировать музыку символически в форме рояля, который определяет время, высоту тона, скорость и инструмент каждой ноты, которую нужно сыграть. Это привело к впечатляющим результатам, таким как создание хоралов Баха, полифонической музыки с использованием нескольких инструментов, а также длинных музыкальных произведений.

Но генераторы символов имеют ограничения — они не могут улавливать человеческие голоса или многие более тонкие тембры, динамику и выразительность, необходимые для музыки. Другой подход [1] предназначен для моделирования музыки непосредственно как необработанного звука. Генерация музыки на уровне аудио является сложной задачей, поскольку последовательности очень длинные. Типичная 4-минутная песня с качеством CD (44 кГц, 16 бит) имеет более 10 миллионов временных шагов. Для сравнения, в GPT-2 было 1000 временных шагов, а в OpenAI Five — десятки тысяч временных шагов на игру. Таким образом, чтобы изучить семантику музыки высокого уровня, модель должна иметь дело с чрезвычайно дальнодействующими зависимостями.

Одним из способов решения проблемы длинного ввода является использование автокодировщика, который сжимает необработанный звук в низкоразмерное пространство, отбрасывая некоторые нерелевантные для восприятия биты информации. Затем мы можем обучить модель генерировать звук в этом сжатом пространстве и повышать дискретизацию до необработанного аудиопространства.

Мы выбрали работу над музыкой, потому что хотим и дальше расширять границы генеративных моделей. Наша предыдущая работа над MuseNet была посвящена синтезу музыки на основе больших объемов MIDI-данных. Теперь в необработанном аудио наши модели должны научиться справляться с большим разнообразием, а также с очень длинной структурой, а область необработанного аудио особенно не прощает ошибок в краткосрочной, среднесрочной или долгосрочной временной шкале.

Необработанный звук  44,1 тыс. отсчетов в секунду, где каждый отсчет представляет собой число с плавающей запятой, представляющее амплитуду звука в данный момент времени

Кодирование с использованием CNN (сверточных нейронных сетей)

Сжатое аудио  344 выборки в секунду, где каждая выборка представляет собой 1 из 2048 возможных словарных токенов

Создание новых паттернов из обученного преобразователя на основе текстов песен

Новое сжатое аудио  344 выборки в секунду

Повышение частоты дискретизации с использованием преобразователей и декодирование с использованием CNN

Новое необработанное аудио  44,1 тыс. выборок в секунду

Подход

Сжатие музыки в дискретные коды

Модель автоэнкодера Jukebox сжимает звук в дискретное пространство, используя подход на основе квантования, называемый VQ-VAE. Иерархические VQ-VAE могут генерировать короткие инструментальные пьесы из нескольких наборов инструментов, однако они страдают от коллапса иерархии из-за использования последовательных кодировщиков в сочетании с авторегрессионными декодерами. Упрощенный вариант под названием VQ-VAE-2 позволяет избежать этих проблем, используя только кодеры и декодеры с прямой связью, и они показывают впечатляющие результаты при создании изображений с высокой точностью.

Мы черпаем вдохновение в VQ-VAE-2 и применяем их подход к музыке. Мы модифицируем их архитектуру следующим образом:

  • Чтобы облегчить коллапс кодовой книги, характерный для моделей VQ-VAE, мы используем случайные перезапуски, когда мы случайным образом сбрасываем вектор кодовой книги в одно из закодированных скрытых состояний всякий раз, когда его использование падает ниже порогового значения.
  • Чтобы максимально использовать верхние уровни, мы используем отдельные декодеры и независимо восстанавливаем вход из кодов каждого уровня.
  • Чтобы позволить модели легко восстанавливать более высокие частоты, мы добавляем спектральные потери, которые снижают норму разницы входных и реконструированных спектрограмм.

Мы используем три уровня в нашем VQ-VAE, показанном ниже, которые сжимают необработанный звук 44 кГц в 8x, 32x и 128x соответственно, с размером кодовой книги 2048 для каждого уровня. Это понижение частоты дискретизации теряет большую часть деталей звука и звучит заметно шумно по мере того, как мы спускаемся вниз по уровням. Однако он сохраняет важную информацию о высоте тона, тембре и громкости звука.

1. Компресс
2. Сгенерируйте

Каждый уровень VQ-VAE независимо кодирует ввод. Кодирование нижнего уровня обеспечивает реконструкцию самого высокого качества, в то время как кодирование верхнего уровня сохраняет только основную музыкальную информацию.

Для создания новых песен каскад преобразователей генерирует коды сверху вниз, после чего декодер нижнего уровня может преобразовать их в необработанный звук.

Генерация кодов с помощью преобразователей

Затем мы обучаем предыдущие модели, целью которых является изучение распределения музыкальных кодов, закодированных с помощью VQ-VAE, и генерация музыки в этом сжатом дискретном пространстве. Как и в VQ-VAE, у нас есть три уровня априорных значений: априорный уровень верхнего уровня, который генерирует наиболее сжатые коды, и два априорных уровня с повышением дискретизации, которые генерируют менее сжатые коды, обусловленные выше.

Приоритет верхнего уровня моделирует долгосрочную структуру музыки, а образцы, декодированные из этого уровня, имеют более низкое качество звука, но охватывают семантику высокого уровня, такую ​​как пение и мелодии. Приоритеты повышения частоты дискретизации в середине и внизу добавляют локальные музыкальные структуры, такие как тембр, значительно улучшая качество звука.

Мы обучаем их как авторегрессионные модели, используя упрощенный вариант разреженных преобразователей. Каждая из этих моделей имеет 72 слоя факторизованного самовнимания в контексте 8192, что соответствует примерно 24 секундам, 6 секундам и 1,5 секундам необработанного звука на верхнем, среднем и нижнем уровнях соответственно.

После того, как все априоры обучены, мы можем генерировать коды верхнего уровня, повышать их дискретизацию с помощью повышающих дискретизаторов и декодировать их обратно в необработанное аудиопространство с помощью декодера VQ-VAE для семплирования новых песен.

Набор данных

Чтобы обучить эту модель, мы просканировали Интернет и отобрали новый набор данных из 1,2 миллиона песен (600 000 из которых на английском языке) в сочетании с соответствующими текстами песен и метаданными из LyricWiki. Метаданные включают исполнителя, жанр альбома и год выпуска песен, а также общее настроение или ключевые слова списка воспроизведения, связанные с каждой песней. Мы тренируемся на 32-битном необработанном звуке с частотой 44,1 кГц и выполняем увеличение данных путем случайного микширования правого и левого каналов для получения монофонического звука.

Обработка исполнителя и жанра

Преобразователь верхнего уровня обучен задаче прогнозирования токенов сжатого аудио. Мы можем предоставить дополнительную информацию, такую ​​как исполнитель и жанр для каждой песни. Это имеет два преимущества: во-первых, снижается энтропия аудио-предсказания, поэтому модель способна достигать лучшего качества в любом конкретном стиле; во-вторых, во время генерации мы можем управлять моделью для генерации в выбранном нами стиле.

Этот t-SNE ниже показывает, как модель учится без присмотра группировать похожих исполнителей и жанры близко друг к другу, а также создает некоторые удивительные ассоциации, например, Дженнифер Лопес так близка к Долли Партон!

Кондиционирование текста

В дополнение к кондиционированию исполнителя и жанра, мы можем предоставить больше контекста во время обучения, кондиционируя модель на тексте песни. Серьезной проблемой является отсутствие хорошо выровненного набора данных: у нас есть тексты только на уровне песни без привязки к музыке, и, таким образом, для данного фрагмента аудио мы не знаем точно, какая часть текста (если есть) появляться. У нас также могут быть версии песен, которые не совпадают с версиями слов, что может произойти, если данная песня исполняется несколькими разными исполнителями немного по-разному. Кроме того, певцы часто повторяют фразы или иным образом изменяют тексты способами, которые не всегда отражены в письменных текстах.

Чтобы сопоставить звуковые фрагменты с соответствующими текстами, мы начнем с простой эвристики, которая выравнивает символы текста так, чтобы они линейно охватывали продолжительность каждой песни, и передаем во время обучения окно символов фиксированного размера, центрированное вокруг текущего сегмента. Хотя эта простая стратегия линейного выравнивания работала на удивление хорошо, мы обнаружили, что она не работает для определенных жанров с быстрой лирикой, таких как хип-хоп. Чтобы решить эту проблему, мы используем Spleeter для извлечения вокала из каждой песни и запускаем NUS AutoLyricsAlign для извлеченного вокала, чтобы получить точное выравнивание текста на уровне слов. Мы выбрали достаточно большое окно, чтобы фактический текст с высокой вероятностью находился внутри окна.

Чтобы следить за текстом, мы добавляем кодировщик для создания представления текста и добавляем уровни внимания, которые используют запросы от музыкального декодера для обработки ключей и значений от кодировщика текста. После обучения модель учится более точному выравниванию.

Выравнивание текста и музыки, изученное уровнем внимания кодировщик-декодер
Внимание переходит от одного элемента текста к другому по ходу воспроизведения музыки, с некоторыми моментами неопределенности.

Ограничения

Хотя Jukebox представляет собой шаг вперед в музыкальном качестве, согласованности, длине аудиосэмпла и способности определять исполнителя, жанр и тексты песен, существует значительный разрыв между этими поколениями и музыкой, созданной людьми.

Например, в то время как сгенерированные песни демонстрируют местную музыкальную согласованность, следуют традиционным образцам аккордов и могут даже содержать впечатляющие соло, мы не слышим знакомые более крупные музыкальные структуры, такие как повторяющиеся припевы. Наш процесс понижения и повышения частоты дискретизации вносит заметный шум. Улучшение VQ-VAE, чтобы его коды захватывали больше музыкальной информации, помогло бы уменьшить это. Наши модели также медленны для выборки из-за авторегрессионной природы выборки. Требуется примерно 9часов, чтобы полностью воспроизвести одну минуту звука с помощью наших моделей, поэтому их пока нельзя использовать в интерактивных приложениях. Использование методов, которые перегоняют модель в параллельный сэмплер, может значительно увеличить скорость выборки. Наконец, в настоящее время мы тренируемся на английском языке и в основном на западной музыке, но в будущем мы надеемся включить песни с других языков и частей мира.

Направления будущего

Наша команда звукорежиссеров продолжает работать над созданием аудиосэмплов, основанных на различных видах исходной информации. В частности, мы видели раннее успешное обусловливание MIDI-файлов и исходных файлов. Вот пример необработанного аудиосэмпла, обработанного на MIDI-токенах. Мы надеемся, что это улучшит музыкальность сэмплов (так же, как обработка текстов улучшила пение), и это также даст музыкантам больше контроля над поколениями. Мы ожидаем, что сотрудничество людей и моделей станет все более захватывающим творческим пространством. Если вы рады работать над этими проблемами с нами, мы нанимаем.

Поскольку генеративное моделирование в различных областях продолжает развиваться, мы также проводим исследования по таким вопросам, как предвзятость и права интеллектуальной собственности, и взаимодействуем с людьми, которые работают в областях, где мы разрабатываем инструменты. Чтобы лучше понять будущие последствия для музыкального сообщества, мы поделились Jukebox с первоначальной группой из 10 музыкантов разных жанров, чтобы обсудить их отзывы об этой работе. Хотя Jukebox является интересным результатом исследования, эти музыканты не сочли его непосредственным применимым к своему творческому процессу, учитывая некоторые из его текущих ограничений. Мы связываемся с более широким творческим сообществом, поскольку считаем, что генеративная работа с текстом, изображениями и звуком будет продолжать улучшаться. Если вы заинтересованы в том, чтобы стать творческим соавтором, чтобы помочь нам создавать полезные инструменты или новые произведения искусства в этих областях, сообщите нам об этом!

Регистрация творческого соавтора

Чтобы связаться с соответствующими авторами, отправьте электронное письмо по адресу [email protected].

    Хронология
  • Наша первая необработанная звуковая модель, которая учит воссоздавать такие инструменты, как фортепиано и скрипка. Мы пробуем набор данных рок- и поп-песен, и на удивление это работает.




  • Мы собираем более обширный и разнообразный набор данных песен с ярлыками для жанров и исполнителей. Модель более последовательно улавливает художественные и жанровые стили с разнообразием, а при сближении может также создавать полноформатные песни с долгосрочной связностью.





  • Мы масштабируем наш VQ-VAE от 22 до 44 кГц для достижения более высокого качества звука. Мы также масштабируем верхний уровень с 1B до 5B, чтобы получить больше информации. Мы видим лучшее музыкальное качество, чистое пение и когерентность на большом расстоянии. Мы также делаем новые дополнения к реальным песням.






  • Мы начинаем обучать модели, основанные на текстах песен, чтобы включить в них дополнительную информацию. У нас есть только несогласованные тексты, поэтому модели нужно научиться выравниванию и произношению, а также пению.




4 способа использования искусственного интеллекта в музыкальной индустрии в настоящее время

FYI

Вопреки распространенному мнению, «музыка ИИ» — это больше, чем просто песни, созданные ИИ. Да, намного больше… По крайней мере, еще 4 способа! Ознакомьтесь с каждым из них в этой статье.

Оксана


• 5 минут чтения

Что приходит на ум, когда вы думаете о « AI music »? Самая распространенная ассоциация — это музыка, созданная искусственным интеллектом. Большинство людей представляют себе абстрактные композиции, созданные роботом, машиной, приложением или сервисом на основе ИИ. Хотя это правильный ответ и справедливая ассоциация, сочинение и генерация — не единственные связанные с музыкой задачи, для которых ИИ используется .

Поскольку « AI » за последние несколько лет стало модным словом, может показаться, что искусственный интеллект был изобретен совсем недавно, но это не так уж далеко от истины. На самом деле системы и устройства ИИ существуют уже около 60 лет, с момента появления компьютера, и отныне стали обычным явлением в самых разных областях.

Искусственный интеллект не оседлал волну шумихи без причины, его популярность сейчас является прямым результатом многолетних исследований и испытаний, основанных на существующих научных теориях. Применение ИИ в одной области исследования влияет на многие другие области, в том числе Музыка. Из-за этого устройства ИИ продолжают развиваться с беспрецедентной скоростью в истории человечества.

Сегодня, как никогда раньше, технологии богаты на использование в обучении, создании или оценке музыки. Давайте посмотрим на четыре основных способа использования ИИ в музыкальной индустрии .

Вы когда-нибудь задумывались о том, как стриминговые сервисы точно рекомендуют музыку, которая может вам понравиться? Откуда Spotify так хорошо тебя знает? Такой персонализированный опыт прослушивания создается с помощью систем музыкальных рекомендаций на основе искусственного интеллекта.

Крупные поставщики музыкальных услуг, такие как Spotify, Apple, Pandora и Amazon, используют ИИ для анализа предпочтений своих слушателей и «предсказывания» новых любимых песен. Механизмы рекомендаций на основе ИИ используются платформами потоковой передачи музыки для улучшения своих услуг. Используя эту технологию, они могут понять вкусы своих клиентов и предложить качественные рекомендации для дальнейшего прослушивания.

Например, чтобы создать для вас точные рекомендации, искусственный интеллект Spotify анализирует историю прослушивания всей базы подписчиков в сравнении с песнями в вашей ротации. ИИ сравнивает плейлисты, которые вы часто посещаете, со списками воспроизведения других подписчиков Spotify, чтобы найти пользователей со вкусами, близкими к вашим. После этого ИИ находит рекомендации песен на основе вашего собственного вкуса и музыки, которую слушают пользователи со схожими вкусами.

Оба ‘ Discover Weekly 9Плейлисты 0132 ’ и ‘ Release Radar ’ в Spotify на самом деле являются функциями, основанными на алгоритмах. Эти автоматически генерируемые еженедельные плейлисты высоко ценятся за точнейшие рекомендации. За ними нет никакой магии, только мощная технология искусственного интеллекта.

Генерация и сочинение музыки, без сомнения, являются самыми популярными и широко известными приложениями ИИ в музыке прямо сейчас. В этой области искусственный интеллект становится бесценным партнером для любого человека, который хочет создавать музыку в сотрудничестве или черпать вдохновение.

В то время как музыка, генерируемая ИИ, некоторым кажется ленивым и «странным новым» способом создания, Дэвид Боуи, один из самых уникальных и оригинальных музыкантов, использовал похожий на ИИ Verbasizer скрипт для создания текстов песен для его песни еще в 90-х. Посмотрите клип, в котором Боуи обсуждает свой творческий процесс с использованием Verbasizer здесь.

В истории совместного создания музыки искусственным интеллектом и людьми-исполнителями немало выдающихся моментов. В 2017 году музыкант Тарин Саузерн написал целый альбом в сотрудничестве с AI; в начале 2020 года Бьорк работала с Microsoft над созданием музыки, сгенерированной искусственным интеллектом, которая меняется в зависимости от погоды. Иногда ИИ даже работает соло, например AIVA , служба глубокого обучения написанию музыки, которая выпустила два альбома и стала первым виртуальным композитором, признанным музыкальным сообществом.

Однако генерация музыки с помощью ИИ не так нова, как кажется. По сути, он просто предоставляет доступ к сложным, но простым в использовании инструментам и безграничным мелодиям, с которыми можно поиграть. Независимо от того, являетесь ли вы музыкантом или нет, вы можете пробудить свой творческий потенциал и весело провести время с сервисами на основе искусственного интеллекта для создания музыки, такими как Amper , AIVA и Буми .

Прежде чем песни станут доступны для прослушивания, они проходят многочисленные этапы редактирования. Многие часы внимательного прослушивания, принятия решений по микшированию и мастерингу, при каждом изменении финального звучания песни или записи. Это длительный процесс, который требует много ресурсов от людей-специалистов — еще одна задача, связанная с музыкой, которую можно ускорить и улучшить с помощью искусственного интеллекта.

LALAL.AI , служба разделения стеблей на основе искусственного интеллекта, помогает разбирать смешанные песни на составляющие части, вокальные и инструментальные треки. Алгоритмы машинного обучения помогают точно изолировать каждый стебель и ускорить весь процесс разделения дорожек до считанных секунд. Отдельные вокальные и инструментальные партии можно использовать для создания каверов на песни, диджейских миксов, бэктреков для караоке и т. д. Он автоматизирует процесс балансировки определенных частот каждого трека в альбоме или EP, чтобы треки дополняли друг друга. Алгоритм машинного обучения EQ2 определяет детали, которые могут быть переданы человеческому уху, автоматически корректирует тональный дисбаланс и повышает четкость миксов.

Izotope и Landr используют машинное обучение для воспроизведения процессов, выполняемых инженерами мастеринга. Оба сервиса используют эту технологию для автоматизации процесса подготовки окончательного микса и обеспечивают почти мгновенные результаты мастеринга, недоступные для любого инженера по мастерингу. Хотя большая часть процесса автоматизирована, пользователи по-прежнему могут контролировать свои предпочтения микширования и звуковые эффекты.

Анализ музыки — это процесс извлечения музыкальных данных и разбивки песен по их характеристикам. Он помогает музыкантам, лейблам, продюсерам, издателям и кураторам плейлистов систематизировать и рекомендовать музыку. С помощью ИИ анализ может выполняться значительно быстрее и точнее.

Искусственный музыкальный интеллект Cyanite прослушивает миллионы песен всего за несколько минут и одновременно извлекает информацию из музыки, чтобы придать каждому треку определенные характеристики. Служба использует два типа анализа: символический анализ собирает информацию о ритме, последовательности аккордов, гармонии и т.