请问是否支持断点续训?lora和全参微调
lianglinyi opened this issue · comments
lianglinyi commented
例如像别的repo是启动脚本里加checkpoint_dir参数指向断点的模型路径,继续训
logCong commented
后面可能会增加,其实比较简单的处理办法是,断点lora参数合并到原始模型之后,利用合并后的参数直接初始化
基于ChatGLM-6B、ChatGLM2-6B、ChatGLM3-6B模型,进行下游具体任务微调,涉及Freeze、Lora、P-tuning、全参微调等
lianglinyi opened this issue · comments
例如像别的repo是启动脚本里加checkpoint_dir参数指向断点的模型路径,继续训
后面可能会增加,其实比较简单的处理办法是,断点lora参数合并到原始模型之后,利用合并后的参数直接初始化