ucaswindlike
ucaswindlike
请问怎么把结果恢复成与视频位置一致,是按照一定比列放大吗?还有根节点的偏移怎么加入呢,这个根节点似乎没有移动
> 您好,有个问题请教您,在二维和三维的人体姿态估计中,二维估计是针对图像坐标吗?现有的二维标注数据同样是图像坐标系吗(单位是毫米?)?,而三维姿态估计又是针对那个坐标系?(世界or相机?),三维数据集的标注又是什么形式? @ucaswindlike 二维骨架的提取,比如openpose,他的json文件里是图像的二维坐标。3D的话,应该可以根据bvh文件算出世界坐标,这个项目的点的坐标经过处理,缩小了
> > 请问怎么把结果恢复成与视频位置一致,是按照一定比列放大吗?还有根节点的偏移怎么加入呢,这个根节点似乎没有移动 > > 不清楚第一个问题结果恢复成视频位置一致是什么意思,视频中的真实世界的高度与宽度信息本来就是模糊的,预估的姿态只是在比例上保持一致。 > > 第二个问题:在alphapose和openpose中这个位移信息好像就没有,可以研究下alphapose和openpose中是否可以得到根节点的位移信息. 谢谢您的回复,不好意思第一个问题没有说清楚。我是看output里面的3d顶点坐标间的offset很小,跟openpose alphapose的json里面关节点offset相差较大,是不是按比列缩放了
谢谢您的回复,请问哪里可以了解一些human3,6的坐标系呢,我想做一个与openpose的映射
thansk for your code. I want to test my own 2 pictures to see the transfermation. How to achieve this?
same issue
same question, any suggestions?
could you please share your custom node
> [@zsp1993](https://github.com/zsp1993) Done. Now you can use `--use_gradient_checkpointing_offload` and `--training_strategy "deepspeed_stage_3"` to train 14B T2V model using 8 A100 (8*80G VRAM) GPUs. still oom when training i2v 14b wan2.1 model