马上注册,结交更多好友,享用更多功能^_^
您需要 登录 才可以下载或查看,没有账号?立即注册
x
本帖最后由 十月故里 于 2020-6-3 23:22 编辑
最近在自学深度学习,然后在自己制作数据集的过程中,遇到了显存爆炸的问题了
看了网上的解决方法(ps:吐槽一下,很多都是1.*版本的,最新版本2.0的超级少)
找到了一个分配gpu内存的方法gpus=tf.config.experimental.list_physical_devices(device_type='GPU')
os.environ["CUDA_VISIBLE_DEVICES"] = '0' #指定第一块GPU可用
tf.config.experimental.set_memory_growth(gpus[0],True) #设置显存按需申请
tf.config.experimental.VirtualDeviceConfiguration(memory_limit=2048) #限制最大显存使用2G
然而,满怀希望继续跑的时候,又双溢出了
OP_REQUIRES failed at cwise_ops_common.h:134 : Resource exhausted: OOM when allocating tensor with shape[333,500,3] and type float on /job:localhost/replica:0/task:0/device:GPU:0 by allocator GPU_0_bfc
有没有相关方面的大佬指点一下
程序在数据集比较小的时候是能正常跑的,所以程序上应该没啥问题
如果可以的话,想咨询下大佬们平时自己制作数据集,如生成npy文件都是用什么方法(对图像类的处理)
最后,感谢大佬百忙中抽空来回帖 |