RuntimeError: CUDA error: an illegal memory access was encountered

4. 我的解决

在这里插入图片描述
其实不难发现,我报错的位置基本都是从gpucpu转换的时候出现的问题。

  • 因此考虑是不是cpu内存不太够了,所以内存访问发生错误了
  • 由于我使用的是容器,因此在docker-compose或者dockerfile里将配置项改为:
        shm_size: 64G  →     shm_size: 128G
    
  • shm_size,共享内存(shared memory)
  • 之后就基本不报错了。。。

后续发现其实是某张卡有问题,

  • 0~3一共4个GPU,只在使用0号GPU的时候会出问题
  • 0号卡似乎是被某个进程锁了,还是怎么样,不用那个卡就没事了

1. 错误描述

例行吐槽,第一次遇到这个错误,我是非常无语的。以前是不报错的,和以前相比,不同的地方有

  1. 数据变多了,从80例变成了100例
  2. 换了个docker镜像,可能pytorch版本和cuda版本上有些问题
  3. 检查了代码,没有发生修改

2. 自我尝试

2.1 减小batch_size

感觉上可能会和显存有点关系吧

第一次报错

在这里插入图片描述

  • 结合自己的代码,我这个是在第一个epoch训练完成,validation阶段报的错(line 243
  • 报错后调整batch_size变小(10→8),继续报错

在这里插入图片描述

  • 不过上一步validation的地方已经走过去了,line 258报错
  • 说明把batch_size变小是有一定的效果的

按照这个思路继续把batch_size调小(8→5),又换了个位置报错。。
在这里插入图片描述

  • line 305报错

2.2 换卡改代码

换思路

  • 换了张卡,从0卡变到了1卡。。
  • 删除了非必须的CPU和GPU交换数据部分的代码
  • 依然报错
    在这里插入图片描述
  • 用两张卡,batch_size设置10,不使用预训练模型,还是报错
    在这里插入图片描述
  • 从头训练,单卡,batch_size=5
    在这里插入图片描述
  • 从头训练,单卡,batch_size=4
    在这里插入图片描述
    情况好了一点,都跑到第8个epoch了。但是还是断了

3. 调研情况

报错信息是CUDA丢出来的一个运行时错误,发生了非法内存访问。网上关于这个问题的讨论也很多,但是并没有发现有找到真正原因的。

很多都是靠感觉的

参考:

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
扎眼的阳光的头像扎眼的阳光普通用户
上一篇 2023年2月22日 下午10:03
下一篇 2023年2月22日 下午10:03

相关推荐