如何在调整不同 LORA 的重量的同时加载多个 LORA
ziwang-com opened this issue · comments
目前,您可以加载多个适配器并合并到基本模型中,如下所示,此处所有适配器的权重相等:
model = AutoModel... # base model # set load_in_8bit
to False
for peft_model_id in peft_model_ids:
model = PeftModel.from_pretrained(model, peft_model_id)
model = model.merge_and_unload()
我不确定这是否是一个常见的要求,但我可以分享我的例子:我目前正在开发一种人工智能服务,主要训练专业人士之间的日常对话,以及与专业领域相关的理论知识。最终目标是提供更接近人与人之间日常对话风格的答案,而不是产生僵化的理论知识。因此, 我希望能够同时加载多个 LORA,并在提问时根据一定的权重融合它们, 例如在这种情况下, 用于日常对话和专业知识的 LORA.这类似于在文本到图像生成中组合不同样式的图像。
请问下,你这个想法实施的怎么样了