beyondguo/LLM-Tuning Issues
有群吗,拉个群把
Closed 2ChatGLM2按照readme教程微调了,但是没有效果!!!
Updated 19多卡训练感觉不是并发的?
Updated 8使用ChatGLM2-6B分词报错
Updatedmodel.hf_device_map 不存在如何解决呢
Updatedwhere is "my_templates" module
Updatedchatglt-6b2 lora微调使用int4精度报错
Updatedbaichuan-13b reward model训练
Updatedppo报错
Closed 3为什么训练阶段的显存一直在往上涨?一会就 OOM 了
Closed 1加载数据集报错
Closed 1TORCH_USE_CUDA_DSA
Closed 3关于全量和LoRA的问题
Closed 2如何在离线环境生成 tokenized_data ?
Closed 1rulai_enhance.json 数据开源了嘛大佬
Closed 1使用lora微调ChatGLM2-6B 报错
Updated 1如何评估finetune过程中模型的性能?
Closed 2lora tuning 出的权重,再加一个合并的功能?
Updated 1微调的时候如何让模型记住一些特有的知识呢
Updated 3怎么训练多轮对话呀
Updated 56块Tesla A100 40G训练会卡住
Closed 1请教一下显存问题
Closed 3是否支持多轮对话的微调?
Updated 1glm2和glm分别需要多大的显存才能微调
Closed 1cuda版本
Closed 1请问可以有支持 Apple M 系列处理器 mps 的方式吗?
Closed 1微调出错如下:
Closed 1是否可以增加 预测和推断的代码?
Closed 1Chinese-LLaMA-Alpaca有计划安排加入吗?
Updated 1微调后输出长度不够长
Closed 1weights 文件训练出来很小,正常嘛
Closed 1训练后加载跑,无效果,请看看这样对吗
Updated运行报错
Closed 22看了#8号贴,注释了两行报119
Closed请教大佬一个问题,关于输入长度
Updated 1