lixiangMindSpore

Results 21 comments of lixiangMindSpore

> This API does not seem to be documented in PyTorch: https://pytorch.org/docs/1.10.0/distributed.html > > Could you elaborate more on the use case? Thanks. ``` import pickle import torch import warnings...

> @lixiangMindSpore For now you can just remove the `torch.distributed.destroy_process_group()` from your training script, and your training will just run well. The process groups will be destroyed automatically when the...

> 据我所知,这种应该是不行的。但是我做过跟您这种类似的需求。方案有两种: 1)直接训练一个 2 类别的检测器,一个类别是是否在抽烟,一个类别是是否玩手机; 2)如果抽烟,玩手机的数据是独立的,可以做一个共享 backbone,两个检测头的检测器,一个检测头检测是否抽烟,一个检测头检测是否在玩手机; 谢谢您的解答,之前是基于我的抽烟检测数据集和玩手机数据集各训练一个模型,抽烟检测数据集中包含玩手机的,玩手机的数据集中也包含抽烟的,当前在不改变数据集标注的前提下,想把两个模型合成一个?您有什么方法?

> 照着megvii原版复现的。按照作者意见,改了ema_decay=0.9999,[Megvii-BaseDetection/YOLOX#735](https://github.com/Megvii-BaseDetection/YOLOX/issues/735) ,0.1 mAP的diff是正常现象。 按照您给的issue链接,ema_decay从0.9998改为0.9999,您这面的total batchsize是多少?128还是64?为什么YOLOX-nano/ YOLOX-tiny/ YOLOX-m/ YOLOX-l/ YOLOX-x都有不同程度的涨点?

> 这是trt测速,当时未测paddle版本有问题,普通测速来看慢于原版yolox-s很多。速度要求不高时可选用yolox-convnext 比原版yolox-s慢多少?当前速度要求虽然不是特别高,但是也有一定的要求,想知道相关推理速度指标。

> 测试命令: > > # export inference model with trt=True > python tools/export_model.py -c configs/convnext/yolox_convnext_s_36e_coco.yml -o weights=https://paddledet.bj.bcebos.com/models/yolox_convnext_s_36e_coco.pdparams exclude_nms=True trt=True > > # convert to onnx > paddle2onnx --model_dir output_inference/yolox_convnext_s_36e_coco --model_filename...

> convnext backbone里是gelu,cspdarknet里是silu,silu trt可以加速很多。这些测速都是去除NMS的,实际应用无论在什么平台上,都是要加上NMS的。 不用太关注一点点精度,改NMS参数阈值都会改变整体速度,可以自行调整。 YOLOX-ConvNeXt-s比YOLOX-s提升4.1%,不算小了