stoooner

Results 6 issues of stoooner

你好,请问一下代码中install.sh里cd lib/models/EfficientNet-PyTorch这句中的EfficientNet-PyTorch怎么没有啊?是需要自己去git clone下来吗?如果需要自己的git clone下来的话,是下载哪个版本的EfficientNet-PyTorch,还麻烦给个链接呢,非常感谢。

## 1. 测试平台 1. **ubuntu18.04(x86_64)** >- **显卡**: RTX 2060; >- **cuda_version**: 10.2.89; >- **cudnn_version**: 8.2.2.26; >- **opencv_version**: 4.5.3; >- **gcc_version**: 7.5.0; >- **onnxruntime_version**: onnxruntime-linux-x64-gpu-1.6.0; >-**TensorRT_version**: 8.0.1.6 ## 2. 实际效果 通过对STARK-Lightning的onnx文件进行修改并重新导出之后,通过编写TensorRT代码成功编译并进行了执行,通过与ONNXRunTime(C++)的推理效果进行了简单的比较,效果如下:...

这边已经将STARK-Lightning的onnx模型以ONNXRunTime(C++)版本进行了推理, 在Quadro P4200显卡上能够跑到170 FPS左右, 在Jetson Agx Xavier这种边缘计算设备上能够跑到80~90 FPS左右. 并且在性能更加羸弱的jetson TX2(大疆 妙算2)上测试了速度能够达到30FPS多。我的邮箱是[email protected], 有需要探讨的可以先给我发邮件,我git不一定常看这些消息.

I have exported the OSTrack model to an onnx file and used onnxruntime(C++) and TensorRT(C++) for inference,the details are as follows: ------------------------------------ Testing platform 1: Desktop-PC model: vitb_256_mae_ce_32x4_ep300 GPU: RTX...

I have exported the yolov7-tiny model to an onnx file and used onnxruntime(C++) and TensorRT(C++) for inference,the details are as follows: Testing platform 1: Desktop-PC model: yolov7-tiny.pt without NMS GPU:...

Tengine现在是不更新了吗?看最近的也是21年的版本了。jetson上TensorRT8.x的版本编译出来的代码在进行推理的时候直接就是Segmentation Fault,都不知道原因。另外Jetson上cuda感觉完全没用起来,速度太慢了。而且-r参数设置的大了以后,cuda对应的例子运行一会儿就卡死了。官方能否解答一下呢?别跑路了吧