12 Star 108 Fork 22

GT老张 / QPT

加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
克隆/下载
增加CUDA的支持.md 2.25 KB
一键复制 编辑 原始数据 按行查看 历史
zhanghongji 提交于 2022-05-11 17:06 . [Dev]文件格式化

增加CUDA模块 - 无需用户手动安装CUDA也可使用GPU加速

QPT相对于其它打包工具而言,技术方案更偏爱兼容深度学习领域,在使用深度学习工具包时难免会接触到CUDA等加速组件。
不要担心,QPT可以轻松让你打包的程序具备无需用户安装也能使用的CUDA模块!

Tips:由于新卡不一定兼容旧版本CUDA,推荐在打包时安装新版本且符合深度学习框架要求的CUDA。举例:使用GTX1050显卡+CUDA10.0进行打包,用户使用时使用GTX1080、RTX2080等显卡均可运行,但若使用RTX3060显卡(支持的最低CUDA版本为11.2)则可能会出现意料之外的问题,故建议在打包时使用覆盖面积较大的CUDA驱动版本。

使用方法A - PaddlePaddle为例

  1. 【安装PaddlePaddle】
    当前Python环境下需要具备paddlepaddle-gpu这一Python库。
  2. 【安装能用的CUDA】 当前系统中需安装paddlepaddle-gpu所对应版本的CUDA。
    例如你安装了paddlepaddle-gpu.post110,而在PaddlePaddle官网中可以查询到其支持CUDA11.0的深度学习包。
    因此在你的操作系统中需要安装CUDA11.0以及对应的CUDNN,以保障paddlepaddle-gpu可以运行。
  3. 【一切照旧】
    按正常步骤来打包吧~,但需要注意的是,在确定Requirements文件时可以检查paddlepaddle-gpu 版本号是否正确,同时屏幕上也会提示搜索到PaddlePaddle-GPU版本信息:2.1.1,所需CUDA版本:10.2"的字样,此时请务必核对版本号是否符合预期。

使用方式B - 通用模式

只需在打包时添加CUDA相关SubModule即可,但在使用之前请保证本机已经安装对应版本CUDA,并将其正确加入环境变量。代码示例如下:

from qpt.executor import CreateExecutableModule as CEM

# 导入CUDA SubModule
from qpt.modules.cuda import CopyCUDAPackage

#                                                        
module = CEM(work_dir="./sample_program",                
            launcher_py_path="./sample_program/run.py", 
            save_path="./out",
            # 引入SubModule,并设置CUDA为所需版本,例如10.2
            sub_modules=[CopyCUDAPackage(cuda_version="10.2")])
# 开始打包
module.make()
Python
1
https://gitee.com/GT-zhangacer/QPT.git
git@gitee.com:GT-zhangacer/QPT.git
GT-zhangacer
QPT
QPT
开发分支

搜索帮助