yuzhj

Results 5 comments of yuzhj

> step 1 ```bash python tools/export_onnx.py --config configs/bisenetv1_coco.py --weight-path pretrained/coco_stuff/model_final_v1_coco_new.pth --outpath ./model_v1.onnx ``` step 2 ```bash ./tensorrt/build/segment compile model_v1.onnx model_v1.trt ``` I faced this error when I convert the model...

> Maybe switch to tensorrt 8.2.5 and try again? Or use cuda 11.3? same error on tensorrt 8.2.5 and cuda 11.3

> 由于demo/video_frame_extraction中 jpeg_encoder这个module是基于gpu处理的 如果不想使用gpu处理的话,encoder的实现需要改 或者可以尝试使用bmf原生的 decoder也可以设置为cpu处理 在video_params中删掉下面两行参数 > > ``` > "hwaccel": "cuda", > "hwaccel_output_format": "cuda", > ``` 是要用gpu的,是decode那一块占用的显存太多了,因为考虑到1080p的一张图片也就几M的显存,但是使用bmf拉一个1080p的相机流,会占用300多M的显存,所以想问有没有办法通过代码或者设置降低这一块的显存。

> 试一下控制threads: > > ``` > video = graph.decode({ > "input_path": "input.mp4", > "video_params": { > "hwaccel": "cuda", > "hwaccel_output_format": "cuda", > }, > "dec_params": { > "threads": "2" >...

> 这个decode可以参考:https://babitmf.github.io/docs/bmf/api/decode_module/ 更详细的介绍和背景原理之类的,可能需要查阅一些有关cuda、ffmpeg的文档来交叉印证。 通过降低线程数,可以降低显存,我理解应该有一个初始化显存池子的地方,在decode的过程中,初始化显存的地方可以告诉一下在哪里吗?