OpenBMB / CPM-Bee

百亿参数的中英文双语基座大模型

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

finetune结果模型只有13M

jiangliqin opened this issue · comments

commented

训练日志没有异常信息,但是最终cpm_bee_finetune-delta-best.pt只有13m
image

因为使用了增量微调(--use-delta参数),只保存了LoRA的权重

commented

是的,text_generation.py有Lora使用说明,谢谢~

commented

请问是否支持多任务的finetune,讲数据构造成多任务的格式?

您可以将每种任务设计一种数据格式,然后把所有任务的数据混合起来微调即可

您可以将每种任务设计一种数据格式,然后把所有任务的数据混合起来微调即可

请问预训练脚本要用什么数据格式呢?