Gmgge
Gmgge
你好,使用的onnxruntime 1.10,linux,英特尔处理器,目前使用的其他分类网络速度都正常。
你尝试下torch =1.0.0
好的,感谢回答,如果有进一步的成功案例会进行分享。 进一步的问个问题,是否可以用wenet/wenet/bin/recognize.py 来调用预训练模型,我尝试修改该文件,但是有些参数对不上,具体的说,如果我使用预训练模型的最后一个wenetspeech CN Conformer Conformer 地平线,我需要参考什么文件来设置decoding mode,以及一些权重参数呢?我查看了wenet的论文好像没有发现一些可以指导的内容。 是否是我错过了一些重要的信息吗?有一些建议或者案例嘛?
如果使用wenet/wenet/bin/recognize.py 来调用预训练模型,我是否只需要指定必要参数就可以正确推导呢?还是需要设定--mode --ctc_weight等一些参数,wenetruntime中会有一些默认参数,但是有一些wenetruntime有的参数,而recognize.py中没有例如rescoring_weight
十分感谢你的回答 wenetruntime没有暴露参数接口,我通过修改core/decode/下cpp文件中的参数以达到该目的。算是个蹩脚的方法,哈哈
目前尝试出一个稍微不太正常的流程,确实只要LibTorch正常编译成功就可以,但是我自行编译怎么样修改参数都是无法预测成功,可能我对pytorch的编译不是很了解。这边建议使用arm编译torch的[docker](https://github.com/ARM-software/Tool-Solutions/tree/main/docker/pytorch-aarch64#downloading-an-image-from-docker-hub) 下面是一个临时的方案,可以正常运行,速度也不错: 1.下载官方x86版本的libtorch,在pypi下载官方arm的python安装包,从里面取出lib下面的库文件,替换到x86里面,也可以使用我临时构建好的[libtorch](https://github.com/Gmgge/libtorch_arm/releases/download/v1.10.1/libtorch.zip)。 2.由于x86量化的模型无法在arm上推理,使用预训练模型导出,再进行推理即可正常使用。 3.可以尝试进行在arm平台进行量化,我量化成功了,但是推理又报错了,目前的话没有继续研究了。 todo:建议使用上文所说的docker环境正式编译出libtorch,我使用华为云的arm机器镜像18.04docker构建出现报错就没再弄了;量化模型使用的默认是x86的fbgem,导致arm机器使用qnn量化的模型无法推理,所以可以尝试修改代码使得推理支持。
你好,这样只是得分变了呀?但是识别的字还是之前的那个字啊
1.可以使用Rotated Object Detection 进行公章校正 2.二阶段公章识别方法,在检测到文字行之后进行放射变换,变成矩形行数据,再进行文本方向分类就行校正
是的,模型已经收敛,这个速度和是否收敛也具有如此之强的相关性嘛?
我提一点哈,我觉得不建议完全脱离研究性方向,标准化,产业化等这一系列成功是因为OCR研究的取得了有效的进展,paddleocr社区当前维护人员的规模可能变换很大,考虑先集中精力从易用向下手保证社区活跃度是非常正确的选择,但是作为国内头部的ocr社区,其实是有责任维护研究向的工作,不建议设计的时候忽视了这方面考虑。 当然了,如果是应用向的开发与维护的工作,这边伸手报名。