ziwang-com / zero-lora

zero零训练llm调参

Home Page:http://www.m-f.vip

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

如何在调整不同 LORA 的重量的同时加载多个 LORA

ziwang-com opened this issue · comments

huggingface/peft#280

我看到https://github.com/huggingface/peft/pull/263支持多个LORA,但看起来它只支持切换多个LORA,而不是同时加载多个LORA并支持调整相应的权重,如果我想达到类似的结果目前有支持的方法吗?🤔

目前,您可以加载多个适配器并合并到基本模型中,如下所示,此处所有适配器的权重相等:

model = AutoModel... # base model # set load_in_8bit to False
for peft_model_id in peft_model_ids:
model = PeftModel.from_pretrained(model, peft_model_id)
model = model.merge_and_unload()

我不确定这是否是一个常见的要求,但我可以分享我的例子:我目前正在开发一种人工智能服务,主要训练专业人士之间的日常对话,以及与专业领域相关的理论知识。最终目标是提供更接近人与人之间日常对话风格的答案,而不是产生僵化的理论知识。因此, 我希望能够同时加载多个 LORA,并在提问时根据一定的权重融合它们, 例如在这种情况下, 用于日常对话和专业知识的 LORA.这类似于在文本到图像生成中组合不同样式的图像。

请问下,你这个想法实施的怎么样了