shibing624/MedicalGPT Issues
请问是否支持最新的InternLM 2.5?
Updated 1从头开始训练
Closed 2增量预训练,这样的input_ids的格式是不是有问题,帮忙看看
Closed 1关于本地训练问题
Updated 1增量预训练PT与有监督微调SFT的疑问
Updated 1支持GLM4微调
Updated 1orpo脚本NoneType问题
Closed 6大佬,DPO训练报错
Closed 4notebook报错
Updated 1PPO和SFT阶段数据集
Closed 2关于llama3的权重转换
Updated 1医学大模型全流程体验
Updated 2vocab扩展后的模型合并问题
Updated 1有没有人能分享下自己微调后的模型id,我懒得弄,只想吃现成的
Closed 1AMD 执行 run_pt.sh失败
Updated 1关于提前结束训练
Closed 4预训练后模型出现自问自答、输出未知序列、重复口吃现象
Updated 6dpo_training.py eal存在空的情况
Closed 2几步的训练怎么都是独立的,rm都没用sft的adapter
Closed 1对chat模型进行二次预训练后,自问自答
Updated 1训练reward_modeling.py
Closed 1reward_modeling咨询
Updated 1Regarding RLHF and DPO training data
Updated 2dpo训练出错
Closed 5lora模型合并
Updated 2扩充词表后能否直接进行SFT呢?
Updated增量预训练效果评估
Updated 1关于Chatglm3的增量预训练
Closed 1chatglm2合并sft_qlora后,推理出现自动续答
Closed 3请问这是什么oserror
Closed 3全量预训练baichuan-7b Out of memory
Closed 3dpo_training训练chatglm3-6b模型报错。
Closed 1