Huihuihh

Results 22 comments of Huihuihh

> 您好,可以参考examples: > > 1.yolov3_darknet53_270e_coco https://github.com/PaddlePaddle/Serving/tree/v0.7.0/examples/C%2B%2B/PaddleDetection/yolov3_darknet53_270e_coco > > 2.yolov4 https://github.com/PaddlePaddle/Serving/tree/v0.7.0/examples/C%2B%2B/PaddleDetection/yolov4 无法满足我的需求,我是使用的这个例子,我想知道启动一个服务之后,如何远程服务器进行访问推理

> 我也是使用yolov3训练出的模型,想用HTTP Service部署,使用curlpost包进行预测的方式,希望给个例子 请问有对应的例子提供了吗,我也需要使用curl post的方式预测

Paddle-Inference我看好像没有支持ssd_mobilenet_v1的推理?

这个是tensorrt不支持吗,我在jetson nx上编译paddle时,指定了 -DTENSORRT_ROOT=/usr/lib/aarch64-linux-gnu/,但是好像没啥用 ``` Error Message Summary: ---------------------- InvalidArgumentError: Pass tensorrt_subgraph_pass has not been registered. [Hint: Expected Has(pass_type) == true, but received Has(pass_type):0 != true:1.] (at /root/Paddle/paddle/fluid/framework/ir/pass.h:211) ```

cmake的时候,这个是不是就显示开启了tensorrt ``` Current TensorRT header is /usr/include/aarch64-linux-gnu/NvInfer.h. Current TensorRT version is v7 ```

这个tensorrt编译完成了,但是执行推理的时候,服务器自动断电了 我使用了 ``` config.enable_use_gpu(500, 0) config.delete_pass("conv_elementwise_add2_act_fuse_pass") config.delete_pass("conv_elementwise_add_act_fuse_pass") config.enable_tensorrt_engine() ``` 但是执行的时候,到这里就服务器断电了 ``` I0223 09:25:06.619712 8257 graph_pattern_detector.cc:101] --- detected 34 subgraphs --- Running IR pass [tensorrt_subgraph_pass] I0223 09:25:06.659562 8257 tensorrt_subgraph_pass.cc:126] --- detect...

> 请检查电源是否稳定,日志中的优化过程的确会有比较大的GPU计算量。 电源是稳定的,因为不使用这个tensorrt,能够成功执行推理

Paddle-Inference-Demo里面自带的cuda_linux_demo项目可以成功使用tensorrt,但是换成ssd模型之后好像有问题

我是修改了yolov3里面的代码 `infer_yolov3.py` ``` import numpy as np import argparse import cv2 from PIL import Image from time import time from paddle.fluid.core import AnalysisConfig from paddle.inference import Config from paddle.inference import...

模型: 链接:https://pan.baidu.com/s/1WQlrywqDSnZ_M8aN2SsARw 提取码:ldcx