Cumberbatch08

Results 13 comments of Cumberbatch08

the code defines the number of gpu, and in line 134, the for loop uses the gpus.

when I run the code, my code did'nt run the train_op, so this code works, and load the model to predict also works. many thaks!

您好,已经编译好 .h5文件了,怎么test 图片呢,谢谢!

> 脑子一热,想开个中文帖。自己对qwe大神的keras-yolo3代码已经研读过一段时间,并且有一些收获和总结。大家有什么问题想中文交流的可以在下面提出来,用母语交流比较方便,我尽可能解决大家的问题。 > 同时,希望在这里能遇到跟我做相同研究的Chinese ^ o^,互相交流互相提升。 > > 我关于yolo v3的总结写了一篇中文blog,希望对大家理解这个版本的yolo3有所帮助 > https://blog.csdn.net/leviopku/article/details/82660381 > > 需要进一步交流的,可以联系我的邮箱: [[email protected]](mailto:[email protected]) 嗯,我在yolo_video.py 的最上面修改了detect_image,然后可以对图片检测也可以保存了;如果是视频流的怎么处理呢,谢谢哈 我的邮箱是[email protected]

很不错的实验,可以发布一下实验代码吗?我也很想在自己任务上做一些尝试。

回答了我的中文问题,默认你会中文了哈。 我也是读论文后面发现了这个说明,那么可以这么认为Bert_base的平均时效是:188/(128 * 100) = 0.0146875s? tiny的就是19.9/(128 * 100)?

为啥比我的快好多啊,不过我的在线推理是部署在CPU机器,128的文本长度估计需要180ms左右呢

> > 为啥比我的快好多啊,不过我的在线推理是部署在CPU机器,128的文本长度估计需要180ms左右呢 > > TinyBERT/BERT模型的推理时间会因设备型号、input长度等的不同而不同。相同输入,就CPU型号来说,我们测试的推理速度大约Xeon E7-4850:core i7-7700:core i7-8700=1:2.5:5;而相同设备上,文本长度越长,推理时间也就越长 @itsucks 您在这里说了不同机器的的速度比,能说一下bert 128长度的在线推理具体时间吗? 长度越长时间越长这个可以理解,因为计算量大了嘛。