xsp1

Results 2 issues of xsp1

作者您好,我对您的研究很感兴趣,我想请教一下,如果在输入时提供额外的信息会不会使插帧效果变得更好呢?比如苹果手机可以拍摄场景的深度信息,利用这个深度信息,比如在训练时同时输入两张原始图像和对应的两张深度图像,这样能不能在保障插帧效果的同时,适当得简化网络模型结构呢?十分感谢!

您好,我注意到有人提出v2.3版本权重模型的视频插帧效果似乎好于v6、v4系列的版本,经过我在自己视频上插帧验证实验也是如此,所以想自己重新训练v2版本的网络试一下,在这之前我已经跑通了RIFE.py版本的训练。但我发现RIFE_HDv2.py和RIFE.py之间存在很多差异,经过我的修改也不能直接在目前这个发行版本的train.py上直接训练,应该是代码结构如update函数返回值不同,同时v2版本应该提供flow_gt文件,但目前的RIFE.py中不需要。请问能否提供适合RIFE_HDv2.py版本训练的代码?十分感谢!