Не... ChannelPitch здесь не катит. После него, к примеру, маленкий пищащий уродец, который должен обращаться к персу, вдруг заговорит так, как будто он п*рд**т ртом п*рд**т
|
Прочти еще раз то что я написал, может дойдет
ЗЫ. ...или я про ChannelPitch что-то не понял. "Мой Плитц канэчно остффлает жалать чутчего", но вроде ChannelPitch изменяет, а не меряет высоту звука...
|
А кто сказал что она меряет высоту звука? См. совет выше
Я вообще говорил про концепцию анимация->звук, вы же говорите про звук->анимация.
Если делать как вы предложили - то частотного спектра здесь ненужно - для того чтобы просто в такт открывает\закрывать рот, достаточно мощности сигнала, но выглядить это будет хреново.
Если уж и использовать спектр, то необходимо сначала изучить поведение лицевых мышц в зависимости от формы сигнала воспроизводимых звуков, определить таким образом анимации некоторых ключевых мышц лица, сконструировать лицевой скелет так чтобы управление его костями отражало хотя-бы часть мимики человеческого лица, а затем уже пробывать анимировать этот скелет на лету, по звуковому сигналу. Я думаю что такой гемор не стоит получаемого результата, поэтому проще заранее синхронизировать анимацию с звуковым файлом, а затем по скорости анимации, как я уже предложил ранее, менять скорость звука с помощью ChannelPitch, дабы звук не отставал\опережал анимацию.