Louis_Zhang
Louis_Zhang
> 这个应该是您上面说的cuda路径的问题,您那边nvcc是能够正常使用的吗,CUDA路径是什么呢 1. 查看~/.bashrc文件,CUDA路径如下: ``` #
> 你好,windows上暂不支持export_model。Linux可以看下cuda环境:输入nvcc -V看看。方便的话也可以直接拉docker构建环境:https://www.paddlepaddle.org.cn/install/quick?docurl=/documentation/docs/zh/install/docker/linux-docker.html 1. nvcc 环境变量我回复上面朋友贴出来了。 2. 我执行了下gcc --version ``` (UIE) tongna@node1:/usr/local$ gcc --version gcc (Ubuntu 9.4.0-1ubuntu1~20.04.1) 9.4.0 Copyright (C) 2019 Free Software Foundation, Inc. This is free software; see...
> 你好,windows上暂不支持export_model。Linux可以看下cuda环境:输入nvcc -V看看。方便的话也可以直接拉docker构建环境:https://www.paddlepaddle.org.cn/install/quick?docurl=/documentation/docs/zh/install/docker/linux-docker.html 使用paddlepaddle Docker版本环境,可以正常使用。
> > > > hi,请问你解决了吗 你好,暂时解决部分问题。只能用ORT后端推理,PaddleInference和TensorRT后端推理,还是无法用。 镜像版本:paddlepaddle/fastdeploy1.0.5-gpu-cuda11.4-trt8.5-21.10 修复命令:python3 -m pip install --upgrade --force-reinstall fastdeploy-gpu-python -f https://www.paddlepaddle.org.cn/whl/fastdeploy.html 解决思路:强制重新安装fastdeploy-gpu-python 解决后问题:只能用ORT后端推理,PaddleInference和TensorRT后端推理,还是无法用。 截图一:部署UIE,服务成功启动截图  截图二:采用TensorRT部署,只启动了ORT后端,没有启动TensorRT后端  截图三:修改采用Paddle推理,启动失败,并且触发服务自动重启 
@zivh26 链接还是无效的,帮忙发一个可以用的文档链接,感谢了。
> > [@zivh26](https://github.com/zivh26) 链接还是无效的,帮忙发一个可以用的文档链接,感谢了。 > https://openspg.github.io/v2/docs_ch @caszkgui @zivh26 非常感谢两位百忙之中提供新的文档链接,文档质量非常高, 对理解项目给予了极大帮助,真心感谢。 KAG开发者模式中,有两个重要的文档链接失效了,请您们再帮帮忙分别提供**API文档**和**产品端文档**的新链接,非常感谢!