SpongebBob/Finetune-ChatGLM2-6B Issues
请问可以训练chatGLM2-6B-32K的模型嘛
Updated全量微调显存占用
Updated 8我只有200多条多轮对话的数据,去做全参微调能有效果吗?
Updated 2timed out
Updated 1有考虑 加入lora训练吗
Updated 1请问全参数微调需要什么配置呢?
Updated 9训练数据过多时报错Socket Timeout
Closed模型训练,input_ids出现None type
Updated 2为什么不用新版本的transformer么?
Closed多轮数据下载后要如何处理?
Updateddo_eval时报错
Updated 1