Stable diffusion 报 Torch is not able to use GPU; add –skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check 错误 及 排查解决
背景
先说一下我的显卡配置 3060Ti ,当刚开始报这个错误的时候,发现基本上很多博主说的都是在 launch.py
或者 webui-user.bat
加一个参数 --precision full --no-half --skip-torch-cuda-test
,webui-user.bat
是在 set COMMANDLINE_ARGS=
后面加或者launch.py
是在index_url = os.environ.get('INDEX_URL', "")
加。
加上之后确实不报错了,也能启动起来,但是简单跑了一张图之后,发现cpu奇高,gpu却变化不大,而且速度特别慢,这用cpu跑图也太浪费我的3060Ti了
加参数治标不治本
发现问题
偶然间看到这篇文章,看报错信息和torch有关, 是不是我没用到GPU的torch,用的是cpu的
原文地址:https://blog.csdn.net/zcs2632008/article/details/127025294
安装步骤
因为之前环境安装的差不多了,能启动,cuda也安装了。所以重点是三四五步
一、NVIDIA一般电脑上都有
二、安装对应版本的CUDA,我是3060Ti对应的12.0版本,默认路径是在C盘下的
三、下载对应版本的cuDNN(它是GPU的加速库)压缩包,解压后会看到几个文件夹 ,内容放到CUDA对应的文件夹(网上很多教程)
四、安装GPU 版的torch 和torchversion 。主要版本不好找,我CUDA是12.0,但是现在最高的才11.8 ,所以用的11.8
可以参考别人的这篇文章:https://blog.csdn.net/qq_43575504/article/details/129559776
五、用命令卸载掉torch 和torchversion
因为最开始大家安装的方式不同,我是最普通的安装方式,有人是直接用的别人封装好的,我说一下我的接下来是怎么操作
- 把项目导入PyCharm
- 把torch和torchversion两个whl文件放到
\stable-diffusion-webui\venv\Lib\site-packages
下面了 - 在控制台运行卸载命令和安装命令
先卸载再安装,路径改成自己的,别用我的路径
pip uninstall torch #卸载之前安装的torch
pip uninstall torchversion
pip install D:\ruanjian\Stable-Diffusion\stable-diffusion-webui\venv\Lib\site-packages\torch-2.0.1+cu1
18-cp310-cp310-win_amd64.whl
pip install D:\ruanjian\Stable-Diffusion\stable-diffusion-webui\venv\Lib\site-packages\torchvision-0.1
5.2+cu118-cp310-cp310-win_amd64.whl
六、再启动
把之前添加的--precision full --no-half --skip-torch-cuda-test
删掉
再启动
这时候就没有报错信息了,再跑图,也发现明显快了不少,而且cpu是正常的。
不熟悉可能会耽误几个小时,诸位多点耐心
深夜解决了这个问题,觉得有网友会有跟我一样的问题,所以就写了这篇文章,写的有些简略(每一步都能百度到),望海涵,不过知道问题所在了,就好解决了
文章出处登录后可见!