QwenLM/Qwen2 Issues
单机8卡A100-80G可以全参数训练qwen72b嘛?
Closed 2我是用8张T4卡部署32B模型,为什么感觉处理会很慢呢?
Updated 1输出结果一直重复,只到max_new_tokens长度
Updated 4官方给的微调案例无法处理batch数据,非常浪费显存。
Updated 3使用past_key_values生成内容时报错
Updatedfunction call标注数据格式咨询
Closed 2确定种子前提无法固定输出
Updated 2是否有计划支持JSON MODE
UpdatedQwen2-7B 输出结果一直重复,只到max_new_tokens长度
Updated 3文档“使用AutoAWQ量化你的模型”章节示范代码有误
Closed 1如何微调base模型?
Updated 2Qwen2-0.5B模型是不是没有精度
Closed 2gptq版本与vllm版本冲突问题
Updated 4为什么 qwen2 不继续提供 14B 版本了呢?
Closed 1Qwen2-1.5B-Instruct推理耗时问题
Closed 5Qwen2-72B 量化后无法加载
Closed 3请问QWEN2的技术报告会什么时候出来?
Closed 1关于多机分布式训练部署问题
Closed 2继续预训qwen2,rope_theta值是否需要调整
Closed 1qwen2-72b-gptq-int4的问题
Closed 3推理出现无端端的英文,怎么处理呢
Updated 4量化 lora 微调后的qwen2-72b 为4bit的模型
Updated 34块4090部署推理性能问题
Updated 1GGUF int4(qwen2:72b) Model issue
Updated 1使用量化模型,输出错误。
Closed 2