m-wei
m-wei
请问,image_demo里面加载的是yolo3.weights,如果使用train.py训练出来的模型怎么测试呢,我测试图片是没有标记的,就像看一下具体的检测结果!!!谢谢
关于训练时间!
请问从头开始训练,大概需要多长时间,loss一般能达到多少呢
先谢谢作者,训练、测试代码都已经跑通,在我自己数据集上效果还可以,但是我发现保存的log文件在tensorboard一直是No scalar data was found.我尝试了好多方法,可是一直没有,想问作者是怎么操作的,谢谢!!我的tensorboard是1.14.0,即使我把它拷贝到其他电脑上也是一样的问题。。
我想问一下,lung mask 是如何生成的?step1文件可以生成,是要自己补充代码来生成.mhd文件吗,如果这样生成完文件名字也要变成如015.mhd文件还是说名字不变。 还有prepare.py 的366行的'.zraw’是就应该这样,还是说应该‘.raw’ 希望得到你的帮助!!
RT,do you modify some code about mobiesam when you convert encoder.onnx?my converted encoder.onnx"s accuracy is not as good as you
作者,请问你编译trtllm有没有指定-D_GLIBCXX_USE_CXX11_ABI这个参数,但是如果指定-D_GLIBCXX_USE_CXX11_ABI=0的话就和我的opencv库冲突了
作者,视频vit不能转trt是不是因为scatter_add这个算子不支持,这个算子你用python的trt接口是不能转成功的,但是你先生成onnx,然后用c++的trtexec的命令行是可以转成功的!!!(好像python的trt实现和c++有点不一样,python的scatter只实现了min/max)因为我最近有项目要用intervideo,希望作者这块完善一下呀,嘻嘻
rt,我参考你的代码,整体代码逻辑我都没咋变,我只是把部分推理代码抽出来,做成加载模型-推理-关闭模型的形式,然后我遇到一个问题,就是我在结束析构时会报下面错误,我debug了一下,单纯的加载-关闭模型是不报这个错误,如果process阶段函数EnqueueAndWait加上auto trtllm_request_id = executor_->enqueueRequest(executor_request);就会出现这个错误,请问这个是要加上什么释放函数吗? [TensorRT-LLM][ERROR] tensorrt_llm::common::TllmException: [TensorRT-LLM][ERROR] CUDA runtime error in ::cudaFreeAsync(ptr, mCudaStream->get()): context is destroyed (/workspace/tensorrt_llm/cpp/tensorrt_llm/runtime/tllmBuffers.h:122) 1 0x7ff3c266a7aa ./libs/grps_trtllm/lib/libtensorrt_llm.so(+0x5ca7aa) [0x7ff3c266a7aa] 2 0x7ff3c3c6e28a virtual thunk to tensorrt_llm::runtime::GenericTensor::~GenericTensor() + 154 3...