OpenMOSS/CoLLiE Issues
如果想应用更多的模型,例如InstructBLIP,请问应该怎么修改呢?
Updated 1希望能支持 safetensors 格式的权重
Closed 1trainer.py文件中保存peft_config时会出错
Closed 2关于增加千问模型的支持
Closed 11No log information
Closed 2能否增加一个从头预训练的例子?
Updated 1LOMO优化器使用梯度裁剪导致训练时间翻倍?
Closed 2Evaluating is too slow
Closed 2chatGLM2 使用张量并行报错
Closed 6关于模型中断,重启的问题,怎么让模型继续训练
Closed 6支持 RLHF
Updated你好,怎么让保存的模型能够分片,而不是保存一个几十G的大模型
Updated 2能不能重新训练啊?
Closed 3训练loss为NaN
Closed 6使用的Megatron-LM的版本
Closed 11是否可以新增chatglm3 支持?
Closed 3A100单卡跑llama2 finetune lora报错oom
Closed 2chatGLM2 好像目前不支持ptuning训练,有计划什么时候支持么
Updated 2AdaLomo optimizer step method
Updated 3[BUG] Evaluation 时使用并行可能不会完整地遍历一遍数据
Updated 1collie和lomo不兼容
Closed 3使用数据类_ShardContainer遇到错误
Updated 1该项目能否用于对模型进行二次预训练
Closed 3[问题]有关训练可视化
Closed 2替换tokenizer后载入报错
Closed 12lr_scheduler设置的问题
Closed 1Llama2 70B 训练报错
Updated 3训练出错但没有报错信息
Closed 2tensor parallel + zero3 error
Updated 1