站点图标 AI技术聚合

Stable-diffusion安装时Can‘t load tokenizer for ‘openai/clip-vit-large-patch14‘问题解决

Can’t load tokenizer for ‘openai/clip-vit-large-patch14’问题解决.

如果你在安装stable-diffusion的时候遇到了这个问题,可以下载本博客的绑定资源,然后修改项目中的文件地址就可以了。

例如报错:

这是因为hugginface现在被墙了,所以直接下载无法下载。

解决办法

首先创建一个文件夹,将本博文中下载的资源放进去,包括6个json文件,一个txt和一个md文件。

然后查看报错信息,找到报错信息对应的文件地址
例如我这个报错信息就去文件/stable-diffusion-web ui/repositories/stable-diffusion-stability-ai/ldm/modules/encoders/modules.py修改(需要修改的地方都在mudules.py中,但是应该有两个不同地址的modules.py需要修改)
然后在module.py中搜索openai,在version=“openai/”修改为你对应的文件夹地址(注意是文件夹的地址),应该是一共需要修改4个地方,两个mudules.py文件各两处。
这样就可以解决啦

提示:这里对文章进行总结:

简单记录下自己在linux服务器上部署stable-diffusion遇到的问题,希望可以帮助你。

文章出处登录后可见!

已经登录?立即刷新
退出移动版