ZHIZIHUABU

Results 11 comments of ZHIZIHUABU

同问,用的rv1126开发板,模型导出的onnx要求opset=16,但是onnx转rknn要求onnx opset

[I 1/ 1 10:37:22. 29 ...e-Lite/lite/model_parser/model_parser.cc:537 SaveModelNaive] 2. Model is optimized and saved into ppliteseg_qat_self.nb successfully dir: . width: 256 height: 256 mean: 0.500000,0.500000,0.500000 std: 0.500000,0.500000,0.500000 draw_weight: 0.800000 [I 1/...

[model.zip](https://github.com/PaddlePaddle/Paddle-Lite/files/10891418/model.zip) mobielseg模型和ppliteseg_qat_self都是自己用paddleslim进行量化训练的,但是moibleseg模型在cpu上推理250ms,而npu上则需要800ms,ppliteseg_qat_self在cpu上可以正常运行,但是npu上会报上述错误,pp_liteseg是paddleslim库中下载的demo,可以正常运行,推理时间70ms。以上模型输入图像尺寸为256*256。paddlelite是develop版本,paddleslim是2.4.1版本,paddle-gpu是2.4.2版本。

您那边可以帮忙分析以下为什么mobileseg模型在npu上推理速度比cpu上更慢吗,npu需要800ms,但是cpu只需要200ms,我用fastdeploy部署也是相同的结果。完整的log文件是在哪个目录下呢,还是需要自己手动保存呢?

[log.txt](https://github.com/PaddlePaddle/Paddle-Lite/files/10894625/log.txt) 我现在需要迫切解决这个问题,希望能够您的帮助,mobileseg模型是我们需要部署的模型,希望您能帮忙分析一下,推理时间很慢。

@shiyutang 您好,请问你这边的coarse_model是直接训练的模型吗,需要做什么处理吗?相当于加入C2Fnet结构是一个微调过程吗?类似蒸馏一般

目标平台改成x64就好了

我现在想基于这种无监督模型去获取异常样本的位置,然后将位置坐标作为提示点输入到SAM进行分割,这样获取异常缺陷的mask,相当于分割标签了,因为直接用无监督模型训练得到的mask似乎是不太准确的。我最近看到了RSPrompter: Learning to Prompt for Remote Sensing Instance Segmentation based on Visual Foundation Model这篇论文似乎表达了类似的意思

![Snipaste_2024-08-24_16-51-33](https://github.com/user-attachments/assets/edf8a6bd-70ef-40e8-a9e8-60f8ad159ad9)