Can’t load tokenizer for ‘openai/clip-vit-large-patch14’问题解决.
如果你在安装stable-diffusion的时候遇到了这个问题,可以下载本博客的绑定资源,然后修改项目中的文件地址就可以了。
例如报错:
这是因为hugginface现在被墙了,所以直接下载无法下载。
解决办法
首先创建一个文件夹,将本博文中下载的资源放进去,包括6个json文件,一个txt和一个md文件。
然后查看报错信息,找到报错信息对应的文件地址
例如我这个报错信息就去文件/stable-diffusion-web ui/repositories/stable-diffusion-stability-ai/ldm/modules/encoders/modules.py修改(需要修改的地方都在mudules.py中,但是应该有两个不同地址的modules.py需要修改)
然后在module.py中搜索openai,在version=“openai/”修改为你对应的文件夹地址(注意是文件夹的地址),应该是一共需要修改4个地方,两个mudules.py文件各两处。
这样就可以解决啦
提示:这里对文章进行总结:
简单记录下自己在linux服务器上部署stable-diffusion遇到的问题,希望可以帮助你。
文章出处登录后可见!
已经登录?立即刷新