liucongg / ChatGLM-Finetuning

基于ChatGLM-6B、ChatGLM2-6B、ChatGLM3-6B模型,进行下游具体任务微调,涉及Freeze、Lora、P-tuning、全参微调等

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

预测代码都没得?

Adam86546853 opened this issue · comments

lora 调完了, 和base模型合并参数, 官方加载模型方式也没法用。

lora 调完了, 和base模型合并参数,就跟原始参数一致呀,怎么可以没法用?

lora合并参数使用的代码在哪里,有老哥发一份help一下吗

拉取最新代码