TensorRT-Alpha
TensorRT-Alpha copied to clipboard
🔥🔥🔥TensorRT for YOLOv8、YOLOv8-Pose、YOLOv8-Seg、YOLOv8-Cls、YOLOv7、YOLOv6、YOLOv5、YOLONAS......🚀🚀🚀CUDA IS ALL YOU NEED.🍎🍎🍎
多图推理问题
我用了U2Net,按照README里面的命令 ./app_u2net --model=../../data/u2net/u2net.trt --size=320 --batch_size=1 --img=../../data/sailboat3.jpg --show --savePath 但这样只能推理一张图,把batch_size=8之后,应该怎么输入图像路径呢?
结果发生越界问题
和其他人员的项目联调时发生了, 越界的错误。m_output_objects_host + bi * (m_param.topK * m_output_objects_width + 1))[0]是个十分大的数,导致int后为-46,用size_t接住查看为 18446744073709551570。但是单独执行我的项目时,无越界状况发生,这种情况下如何判断
再根据视频将logger.cpp和sampleOptions.cpp添加到工程中后,自定义也选择了cuda,属性项类型也选择了cuda cc++。但是报错为: 严重性 代码 说明 项目 文件 行 禁止显示状态 错误 LNK2001 无法解析的外部符号 "class std::vector __cdecl sample::splitToStringVec(class std::basic_string const &,char)" (?splitToStringVec@sample@@YA?AV?$vector@V?$basic_string@DU?$char_traits@D@std@@V?$allocator@D@2@@std@@V?$allocator@V?$basic_string@DU?$char_traits@D@std@@V?$allocator@D@2@@std@@@2@@std@@AEBV?$basic_string@DU?$char_traits@D@std@@V?$allocator@D@2@@3@D@Z) opencv_test F:\opencv_test\tensorRT-YOLOv8\sampleOptions.obj 1 这个该怎么解决呢?给您磕头了
博主您好,你分享的代码我想用在自己训练的数据上。但是发现这里有问题,onnx转换为TensorRT的trt文件成功后,我用Netron查看了数据:它的输出有两种呢,  可是你的代码中只用了一种,这里没有问题吗? https://github.com/FeiYull/TensorRT-Alpha/blob/bca9575229ef5f6fe4c5acf51c1bd3c7e5959ec6/yolov8-seg/app_yolov8_seg.cpp#L13
By not providing "FindOpenCV.cmake" in CMAKE_MODULE_PATH this project has asked CMake to find a package configuration file provided by "OpenCV", but CMake did not find one. Could not find a...
红外图像或者灰度图像的识别需要更改这里的函数吗? resizeDevice(m_param.batch_size, m_input_src_device, m_param.src_w, m_param.src_h, m_input_resize_device, m_param.dst_w, m_param.dst_h, 114, m_dst2src); bgr2rgbDevice(m_param.batch_size, m_input_resize_device, m_param.dst_w, m_param.dst_h, m_input_rgb_device, m_param.dst_w, m_param.dst_h); normDevice(m_param.batch_size, m_input_rgb_device, m_param.dst_w, m_param.dst_h, m_input_norm_device, m_param.dst_w, m_param.dst_h, m_param); hwc2chwDevice(m_param.batch_size, m_input_norm_device, m_param.dst_w, m_param.dst_h, m_input_hwc_device,...
使用您的代码,在AGX Xavier上部署YOLOv8 Pose,输入源是SDI相机,只是更改了一下输入流的处理方式。preprocess时间4-8ms,infer时间30-60ms,postprocess时间2ms,如何才能像您那样做到,推理时间只需5,6ms
yolov5模型要怎么加上deepsort实现目标跟踪呢?
感谢作者的工程分享,我这边使用Cuda12.1+tensorrt10.0+pytroch2.2的配置。来尝试在win10环境下,运行yolov8 C++推理。 出现报错“getBindingDimensions 不是 nvinfer1::IExecutionContext成员 代码C2039”。 这是否是因为tensorrt版本不是教程中的8.x导致的呢? 此外我这边在编译ONNX的时候也提示没有buildOnly这个参数,去掉后编译成功, tensorrt10.0也没有nvparsers.lib 这个文件 ../../../../TensorRT-10.0/bin/trtexec.exe --onnx=yolov8s.onnx --saveEngine=yolov8s.trt --buildOnly --minShapes=images:1x3x640x640 --optShapes=images:4x3x640x640 --maxShapes=images:8x3x640x640
Hello,this is an excellent job! I have a question here,how can I implement yolov8-cls?