Меня интересует определение музыкального ключа аудио-образца. Как (или может) алгоритм пытается попытаться аппроксимировать ключ музыкального образца?
Antares Autotune и Melodyne - это две части программного обеспечения, которые делают такие вещи.
Может кто-нибудь дать немного разъяснения о том, как это будет работать? Математически вывести ключ из песни, проанализировав частотный спектр для хордовых прогрессий и т.д.
Эта тема меня очень интересует!
Изменить - блестящие источники и множество информации, которую можно найти у всех, кто внес свой вклад в этот вопрос.
Специально от: the_mandrill и Daniel Brückner.