liucongg / ChatGLM-Finetuning

基于ChatGLM-6B、ChatGLM2-6B、ChatGLM3-6B模型,进行下游具体任务微调,涉及Freeze、Lora、P-tuning、全参微调等

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

RuntimeError: Error building extension 'fused_adam'

LeFuGang opened this issue · comments

deepspeed==0.12.6
pytorch==1.13.0+cu116
cuda版本11.0
用的模型是glm3,单卡的

image

image

请问这个问题怎么处理呀,能帮忙解决下吧,谢谢了

应该是cuda版本的问题,你要升级到11.6

应该是cuda版本的问题,你要升级到11.6

我CUDA 12.0也是这个问题