shibing624/textgen Issues
单机多卡训练方法
Closed 4大佬请问有没有针对chatglm3的评估脚本呀
Closed 3请问训练的数据集如何获取啊?
Closed 5Bart长文本训练问题
Updated 5读取数据问题
Updated 15怎么指定单GPU
Updated 11安装问题
Updated 2lora 训练参数
Updated 3关于数据集处理
Updated 4多卡部署
Updated 3how to use qlora ?
Updated 5torch.load()希望能够增加map_location
Updated 4ChatGLM模型微调问题咨询
Updated 33是否支持ChatGLM2-6b的微调?
Updated 2大佬什么时候支持一个chatRwkv, 这个现在用的人那么火,不搞一下
Updated 2gpt2训练学不到东西
Updated 2BART、T5和GPT2的模型输入问题
Updated大老看了您的微调方式,有点疑问,您的三个阶段是在哪里体现出来的?
Closed 2模型结果有问题
Closed 1bart纠错模型训练问题
Closed 2模型训练出错
Closed 9T5、GPT用于文本翻译的句式在那个文件
Closed 2Bart文本生成
Closed 3保存模型问题
Closed 2用lora训练chatglm时跑内存
Closed 8请问有没有用于evaluation的代码?
Closed 12如何用使用 p40 训练lora
Closed 2数据集格式
Closed 3model 使用授权问题
Closed 1Miss Requirement tensorboardX
Closed 8您好,请教一下语法纠错后的PRF如何计算?
Closed 1想要开启GPU上训练的话咋设置?
Closed 1输入关键词 去生成关键词相关的文章用GPT2合适吗?
Closed 6我想让TGLS精简些,但一改就会报错
Closed 1