QwenLM / Qwen-VL

The official repo of Qwen-VL (通义千问-VL) chat & pretrained large vision language model proposed by Alibaba Cloud.

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

[BUG] <title>是否支持一次Lora的基础上再次Lora

todayplusplus opened this issue · comments

是否已有关于该错误的issue或讨论? | Is there an existing issue / discussion for this?

  • 我已经搜索过已有的issues和讨论 | I have searched the existing issues / discussions

该问题是否在FAQ中有解答? | Is there an existing answer for this in FAQ?

  • 我已经搜索过FAQ | I have searched FAQ

当前行为 | Current Behavior

我当前的任务准备分多个阶段注入数据,每个阶段都准备使用lora进行微调,

我正在使用的是Qwen-VL-Chat

想请教下,对于原始模型M, 是否可以在第一阶段使用lora,并进行合并,得到合并后的模型M_1。
在第二阶段,能否在M_1的基础上再次注入新的数据进行lora,得到模型M_2?

期望行为 | Expected Behavior

No response

复现方法 | Steps To Reproduce

No response

运行环境 | Environment

No response

备注 | Anything else?

No response

合并之后模型就是相当于一个 Qwen-VL + specific SFT 过的模型,应该可以继续 LoRA 的

commented

你好,请问尝试成功了吗? 我目前也是这样操作的,但是在第二轮finetune时显存占用比之前大很多导致溢出,目前第二轮还没有成功。

我也是第二轮显存占用比之前大很多导致溢出,无法进行二轮微调。