chatglm3 单卡训练报错了
eanfs opened this issue · comments
torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 954.00 MiB (GPU 0; 14.56 GiB total capacity; 12.31 GiB already allocated; 486.50 MiB free; 13.17 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF
卡是T4
显存不足,建议换卡或者采用qlora当时微调
显存不足,建议换卡或者采用qlora当时微调
只有这个卡了,
能说下采用qlora微调 的方案吗
显存不足,建议换卡或者采用qlora当时微调
只有这个卡了, 能说下采用qlora微调 的方案吗
你好,想请问下,怎么使用qlora做chatglm3-6b的微调,有代码可以分享吗?