PaddlePaddle / PaddleX

PaddlePaddle End-to-End Development Toolkit(飞桨低代码开发工具)

Home Page:https://paddlex.readthedocs.io

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

请问是否支持4090显卡的QT部署?

xuweijielyxp opened this issue · comments

Checklist:

  1. 查找历史相关issue寻求解答
  2. 翻阅FAQ常见问题汇总和答疑
  3. 确认bug是否在新版本里还未修复
  4. 翻阅PaddleX 部署文档说明

描述问题

复现

  1. c++部署方式

    • 您是否按照文档教程已经正常运行我们提供的demo

我是使用官方提供的QT部署方式,在使用1050显卡时,能够正常运行提供的demo。但是换到4090显卡时,能够初始化模型,
但是大概率不能加载paddlex2.0训练出来的权重文件,偶尔能加载权重文件,但是进行模型推理时,程序就会崩溃

* 您是否在demo基础上修改代码内容?还请您提供运行的代码


2. c#部署方式

* 您是否按照文档教程已经正常运行我们提供的[demo](https://github.com/PaddlePaddle/PaddleX/tree/develop/examples/C%23_deploy)?

* 您是否在demo基础上修改代码内容?还请您提供运行的代码

* 如果c# demo无法正常运行,c++ [demo](https://github.com/PaddlePaddle/PaddleX/tree/develop/deploy/cpp/demo)是否已经正常运行?
  1. 您使用的模型数据集是?
    faster-rcnn
  2. 请提供您出现的报错信息及相关log

环境

  1. 如果您使用的是python部署方式,请提供您使用的PaddlePaddle、PaddleX版本号、Python版本号

  2. 如果您使用的是c++或c#部署方式,请提供您使用的PaddleX分支、推理引擎(例如PaddleInference)版本号
    使用官方提供的QT部署方式
    PaddleX分支:release/2.1
    PaddleInference版本:PaddleInference2.1,版本说明:cuda10.2_cudnn7_avx_mkl_trt7

  3. 请提供您使用的操作系统信息,如Linux/Windows/MacOS
    win11

  4. 请问您使用的CUDA/cuDNN的版本号是?
    CUDA10.2,cuDNN7.6

commented

40系的卡要更换paddle_inference的版本才能跑
更换后老的显卡又跑不了,于是乎就要准备2个发布版本,一个针对10~30,一个针对40
我这里就是这么操作的

commented

这个仓库太久没更新了,我建议直接用Paddle2ONNX,然后用ONNX来做预测

40系的卡要更换paddle_inference的版本才能跑 更换后老的显卡又跑不了,于是乎就要准备2个发布版本,一个针对10~30,一个针对40 我这里就是这么操作的

您好,我之前尝试过11.8,11.7,11.6版本的paddle–inference,但是在按照官方教程编译动态链接库的时候都以失败告终。可以将您使用的paddle–inference版本,以及paddlex版本告知我参考一下嘛,非常感谢!

这个仓库太久没更新了,我建议直接用Paddle2ONNX,然后用ONNX来做预测

谢谢您,我后续会参考一下

commented

40系的卡要更换paddle_inference的版本才能跑 更换后老的显卡又跑不了,于是乎就要准备2个发布版本,一个针对10~30,一个针对40 我这里就是这么操作的

您好,我之前尝试过11.8,11.7,11.6版本的paddle–inference,但是在按照官方教程编译动态链接库的时候都以失败告终。可以将您使用的paddle–inference版本,以及paddlex版本告知我参考一下嘛,非常感谢!

你这个版本号是不是不对啊,预测库的版本应该是2.x,我到这里下载的
https://paddleinference.paddlepaddle.org.cn/user_guides/download_lib.html#windows

我记得2.2还是2.3就可以支持到40系显卡,你可以都试下

40系的卡要更换paddle_inference的版本才能跑 更换后老的显卡又跑不了,于是乎就要准备2个发布版本,一个针对10~30,一个针对40 我这里就是这么操作的

您好,我之前尝试过11.8,11.7,11.6版本的paddle–inference,但是在按照官方教程编译动态链接库的时候都以失败告终。可以将您使用的paddle–inference版本,以及paddlex版本告知我参考一下嘛,非常感谢!

你这个版本号是不是不对啊,预测库的版本应该是2.x,我到这里下载的 https://paddleinference.paddlepaddle.org.cn/user_guides/download_lib.html#windows

我记得2.2还是2.3就可以支持到40系显卡,你可以都试下

抱歉,我没有描述清楚,我之前使用的是2.5版本的预测库(https://www.paddlepaddle.org.cn/inference/v2.5/guides/introduction/index_intro.html),其中尝试过cuda11.8,cuda11.7,cuda11.6都失败了。我现在去试试2.2和2.3版本的预测库,感谢!

commented

40系的卡要更换paddle_inference的版本才能跑 更换后老的显卡又跑不了,于是乎就要准备2个发布版本,一个针对10~30,一个针对40 我这里就是这么操作的

您好,我之前尝试过11.8,11.7,11.6版本的paddle–inference,但是在按照官方教程编译动态链接库的时候都以失败告终。可以将您使用的paddle–inference版本,以及paddlex版本告知我参考一下嘛,非常感谢!

你这个版本号是不是不对啊,预测库的版本应该是2.x,我到这里下载的 https://paddleinference.paddlepaddle.org.cn/user_guides/download_lib.html#windows
我记得2.2还是2.3就可以支持到40系显卡,你可以都试下

抱歉,我没有描述清楚,我之前使用的是2.5版本的预测库(https://www.paddlepaddle.org.cn/inference/v2.5/guides/introduction/index_intro.html),其中尝试过cuda11.8,cuda11.7,cuda11.6都失败了。我现在去试试2.2和2.3版本的预测库,感谢!

你可以换我发的那个链接,试下2.2或者2.3,应该是可以的

40系的卡要更换paddle_inference的版本才能跑 更换后老的显卡又跑不了,于是乎就要准备2个发布版本,一个针对10~30,一个针对40 我这里就是这么操作的

您好,我之前尝试过11.8,11.7,11.6版本的paddle–inference,但是在按照官方教程编译动态链接库的时候都以失败告终。可以将您使用的paddle–inference版本,以及paddlex版本告知我参考一下嘛,非常感谢!

你这个版本号是不是不对啊,预测库的版本应该是2.x,我到这里下载的 https://paddleinference.paddlepaddle.org.cn/user_guides/download_lib.html#windows
我记得2.2还是2.3就可以支持到40系显卡,你可以都试下

抱歉,我没有描述清楚,我之前使用的是2.5版本的预测库(https://www.paddlepaddle.org.cn/inference/v2.5/guides/introduction/index_intro.html),其中尝试过cuda11.8,cuda11.7,cuda11.6都失败了。我现在去试试2.2和2.3版本的预测库,感谢!

你可以换我发的那个链接,试下2.2或者2.3,应该是可以的

好的好的,感谢!