nowhereman1999
nowhereman1999
@AmmarkoV Hi,I'm a undergratuate from China and I have attended the Adaptive Computing Challenge 2021 with Xilinx and I want to use the KV260 AI starterkit to make a mocap...
> I moved the issue of @Hezhexi2002 to a new issue so that it is not mixed with the making a video issue.. OK,thanks a lot,I'm so sorry that I...
> > > > 我将用中文与你沟通,方便告诉我你的VX或者QQ吗,这样更方便我们交流。 用微信吧,主要是我也没有在本地跑起来过,但是我现在主要是想移植到kv260上
the armor is like this and the bbox is the result of the four keypoint model: 
> Hey Hezhexi2002 ! > > It is possible to convert it to ONNX and work with c++, a good starting Point is here: > > https://github.com/PINTO0309/PINTO_model_zoo > https://github.com/PINTO0309/PINTO_model_zoo/tree/main/085_Yolact_Edge/30_Full_Converted_mbnv2_550x550 >...
啊这,主要是我们现在实现装甲板检测也是直接检测四个角点,因为这样对于后续我们单目测距更加精确,所以也才会在yolov5-face的基础上来改,但是就是可能我们这个任务还需要实现装甲板颜色和数字的分类,所以可能使用您的repo还需要进行一些改动,不过既然大佬您平常很忙的话,我也就不打扰您了,不过还之前还参考过您yolov5-face使用c++部署的教程,还得感谢您呢
> > @fb029ed 大佬,你好,我想先问一下你是哈深rm战队的成员吗,我是一名大二学生,是中北大学606战队视觉组的成员,目前在队里主要负责使用神经网络检测装甲板,就是我是一名大二学生,然后是在中北大学的robomaster战队里负责用神经网络识别装甲板实现自动瞄准,不过就是之前我用yolo系列训练出来的模型最后实际测试时得到的bbox和装甲板的轮廓并不能很好的拟合,导致后续使用pnp进行姿态解算时会有较大误差,所以我现在是基于yolov5-face这个repo实现直接检测装甲板的四个角点,现在就是我之后还想使用openvino实现c++下的部署,之前我已经实现了原始yolov5使用tensorrt在c++的部署,在nano上仅有25fps左右,后来在视觉交流群里,也是哈深的一位叫陈迅的大佬用openvino实现了基于yolov5-face的四点模型的部署,nuc11使用核显可以到100多帧,不过是在python下,我之前也打算使用openvino来部署,因为我们也有一个nuc10,所以我就想能否参考您的仓库来实现,因为我的输出头里增加了四个角点的坐标,那么对于parse_yolov5()函数应该需要修改吧,现在这段时间主要由于是考试周,时间比较紧,四点模型我还没有完全改完,所以想着能不能加一下您的微信或qq之后交流一下呢? > > 本科时是电科1.5视觉组的,检测装甲板这种不用神经网络效果也不错,提帧率算法效率是一方面,roi区域可以加一些策略,另一方面,多进程/线程也很重要。 哦哦,原来是成电的大佬,其实我们现在多线程也在做,是组里另外一个人在负责,我们之所以没有做传统视觉主要是现在都在转向神经网络了,确实相比传统调参要简单很多,然后我们也在做卡尔曼滤波做预测,但是现在就是我想通过vino来做yolov5的加速,所以我就想参考您这个repo,所以能行吗?
> > > > @fb029ed 大佬,你好,我想先问一下你是哈深rm战队的成员吗,我是一名大二学生,是中北大学606战队视觉组的成员,目前在队里主要负责使用神经网络检测装甲板,就是我是一名大二学生,然后是在中北大学的robomaster战队里负责用神经网络识别装甲板实现自动瞄准,不过就是之前我用yolo系列训练出来的模型最后实际测试时得到的bbox和装甲板的轮廓并不能很好的拟合,导致后续使用pnp进行姿态解算时会有较大误差,所以我现在是基于yolov5-face这个repo实现直接检测装甲板的四个角点,现在就是我之后还想使用openvino实现c++下的部署,之前我已经实现了原始yolov5使用tensorrt在c++的部署,在nano上仅有25fps左右,后来在视觉交流群里,也是哈深的一位叫陈迅的大佬用openvino实现了基于yolov5-face的四点模型的部署,nuc11使用核显可以到100多帧,不过是在python下,我之前也打算使用openvino来部署,因为我们也有一个nuc10,所以我就想能否参考您的仓库来实现,因为我的输出头里增加了四个角点的坐标,那么对于parse_yolov5()函数应该需要修改吧,现在这段时间主要由于是考试周,时间比较紧,四点模型我还没有完全改完,所以想着能不能加一下您的微信或qq之后交流一下呢? > > > > > > > > > 本科时是电科1.5视觉组的,检测装甲板这种不用神经网络效果也不错,提帧率算法效率是一方面,roi区域可以加一些策略,另一方面,多进程/线程也很重要。 > > > > > > 哦哦,原来是成电的大佬,其实我们现在多线程也在做,是组里另外一个人在负责,我们之所以没有做传统视觉主要是现在都在转向神经网络了,确实相比传统调参要简单很多,然后我们也在做卡尔曼滤波做预测,但是现在就是我想通过vino来做yolov5的加速,所以我就想参考您这个repo,所以能行吗? > > 传统视觉,有标注的话,参数也是可以搜索出来的,不用手工调整,鲁棒性不比dl方法差。openvino可以用,但是网络结构别用yolov5,yolov5相对来说精度高,cpu上速度慢,没必要,非得要用可以参考https://github.com/RangiLyu/nanodet 我们当时装甲板检测用的传统视觉,整车检测用的神经网络的方法,结合起来可以做小陀螺的打击。 哦哦,其实我之前也看过nanodet这个仓库,本来也想用这个的,但是现在yolov5n的速度还是可以,而且最主要的是我现在是想用四点模型直接检测装甲板的四个角点,而且你们当时的话是把神经网络部署到什么上呢,然后使用了tensorrt还是openvino加速呢?
> > > > > > @fb029ed 大佬,你好,我想先问一下你是哈深rm战队的成员吗,我是一名大二学生,是中北大学606战队视觉组的成员,目前在队里主要负责使用神经网络检测装甲板,就是我是一名大二学生,然后是在中北大学的robomaster战队里负责用神经网络识别装甲板实现自动瞄准,不过就是之前我用yolo系列训练出来的模型最后实际测试时得到的bbox和装甲板的轮廓并不能很好的拟合,导致后续使用pnp进行姿态解算时会有较大误差,所以我现在是基于yolov5-face这个repo实现直接检测装甲板的四个角点,现在就是我之后还想使用openvino实现c++下的部署,之前我已经实现了原始yolov5使用tensorrt在c++的部署,在nano上仅有25fps左右,后来在视觉交流群里,也是哈深的一位叫陈迅的大佬用openvino实现了基于yolov5-face的四点模型的部署,nuc11使用核显可以到100多帧,不过是在python下,我之前也打算使用openvino来部署,因为我们也有一个nuc10,所以我就想能否参考您的仓库来实现,因为我的输出头里增加了四个角点的坐标,那么对于parse_yolov5()函数应该需要修改吧,现在这段时间主要由于是考试周,时间比较紧,四点模型我还没有完全改完,所以想着能不能加一下您的微信或qq之后交流一下呢? > > > > > > > > > > > > > > > 本科时是电科1.5视觉组的,检测装甲板这种不用神经网络效果也不错,提帧率算法效率是一方面,roi区域可以加一些策略,另一方面,多进程/线程也很重要。 > > > > > >...