FACEGOOD / FACEGOOD-Audio2Face

http://www.facegood.cc

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

关于Audio2Face的pipeline疑问

Owen1234560 opened this issue · comments

由于本人还没有跑通整个pipeline,暂时有些疑问。
(1)整个pipeline,就是那张图片展示的(ASR、TTS、FACEGOOD Audio2face),其实是一个语音对话交互系统是吗?
(2)最后产生的blendshape系数,其实是对话模块TTS产生的语音预测出来的系数,和一开始的麦克风录入的声音无关是吧?
(3)如果我想用自己的语音驱动,是不是要使用自己的语音数据,重新训练模型?

commented

由于本人还没有跑通整个pipeline,暂时有些疑问。 (1)整个pipeline,就是那张图片展示的(ASR、TTS、FACEGOOD Audio2Face),其实是一个语音对话交互系统是吗? (2)最后产生的blendshape系数,其实是对话模块TTS产生的语音预测出来的系数,和一开始的麦克风录入的声音无关是吧? (3)如果我想用自己的语音驱动,是不是要使用自己的语音数据,重新训练模型?

1,2,3是的

把语音asr ,tts 放到ue端体验更好,python只做 权重输出

请问渲染是什么完成的,就是得到blendshape mesh这些后,怎么输出视频画面?

blender