SMY1999 Samuel Young
SMY1999 Samuel Young
Hi! Thanks for your great work! I'm now trying to make the same animation as the synthetic data that you have released. But I fail to find a self-rotation motion....
Thanks for your great contribution. This paper benefits me a lot. I'm reading the code carefully. But I do have a question about the dataset split. In _train.yaml_, _data_split_, the...
Hi, tianyu huang! 你好!这是一篇非常有趣的工作!感谢你开源了如此规整的代码! 关于如何对齐video diffusion的碰撞和物理的碰撞时刻? 以下是我的理解, 1. 仿真得到一系列frames,每帧加入高斯噪声,然后预训练的video diffusion预测噪声。 2. 对于video diffusion model而言,它接受的是仿真生成的带噪声的video,以及一个和这个video内容相关的condition(text or image),所以说仿真中的collision过程直接体现在渲染的video中了。 3. 因此,无需显式地提示video diffusion model在什么时刻发生碰撞,因为在去噪的过程中,video diffusion model会在它已经掌握的分布中自动寻找一段类似的回忆。况且这种级别的控制实际上也是做不到的,所以就直接靠video diffusion自己去回忆。 请问这样理解正确吗?