[BUG] <title>是否支持一次Lora的基础上再次Lora
todayplusplus opened this issue · comments
todayplusplus commented
是否已有关于该错误的issue或讨论? | Is there an existing issue / discussion for this?
- 我已经搜索过已有的issues和讨论 | I have searched the existing issues / discussions
该问题是否在FAQ中有解答? | Is there an existing answer for this in FAQ?
- 我已经搜索过FAQ | I have searched FAQ
当前行为 | Current Behavior
我当前的任务准备分多个阶段注入数据,每个阶段都准备使用lora进行微调,
我正在使用的是Qwen-VL-Chat
想请教下,对于原始模型M, 是否可以在第一阶段使用lora,并进行合并,得到合并后的模型M_1。
在第二阶段,能否在M_1的基础上再次注入新的数据进行lora,得到模型M_2?
期望行为 | Expected Behavior
No response
复现方法 | Steps To Reproduce
No response
运行环境 | Environment
No response
备注 | Anything else?
No response
Lei Li commented
合并之后模型就是相当于一个 Qwen-VL + specific SFT 过的模型,应该可以继续 LoRA 的
Zeti commented
你好,请问尝试成功了吗? 我目前也是这样操作的,但是在第二轮finetune时显存占用比之前大很多导致溢出,目前第二轮还没有成功。
lzr945 commented
我也是第二轮显存占用比之前大很多导致溢出,无法进行二轮微调。