ziwang-com/zero-lora Issues
如何在调整不同 LORA 的重量的同时加载多个 LORA
Updated 1SPQR 稀疏量-llm模型压缩
UpdatedAWQ:用于LLM压缩和加速的激活感知重量量化
Updatedperf添加lora-hub实用程序
UpdatedPEFT多LoRA切换
Updated在 不同LoRA 适配器之间切换?
UpdatedSparseGPT:大规模语言模型可以一次性准确修剪
Updated将 LoRA 应用于更多线性图层
Updated无法从 HF #280 转换羊驼重量
Updated将微调的 lora 权重导出到基本模型
Updatedlit-llama使用 LoRA 进行微调
UpdatedHF官方lora叠加案例-AI制图
Updatedggml-lora合并脚本
UpdatedLoRA 合并
Updatedllm微调器与 LoRA 适配器
Updated合并 Lora 和模型
Updated从头开始的训练美洲驼
Updated合乎逻辑的选择!双lora叠加30B模型
UpdatedCaMA: 中英双语LLaMA模型。
UpdatedQLoRA 4 位量化
Updated如何创建自己的 LoRA 适配器?
UpdatedLoRA 应用于复合模型
Updatedcoco-LoR大型语言模型小规模学习
UpdatedLoRACSE: 使用 LoRA 对句子嵌入的对比学习
UpdatedLoRA双网络
Updatedlora情绪分析
Updated注意力权重可视化
UpdatedTOT思维树,zero-lora的广义扩展
UpdatedSophia 索菲亚优化器 将模型训练成本降低 50%?
Updated4位QLora的即将到来
Updatedllama能加载多个lora模型的参数吗
UpdatedLMFlow用于微调和推理大型基础模型的可扩展工具包
UpdatedxTuring提供快速、高效和简单的LLM微调
Updatedxturing 低 VRAM 微调
Updated加载 LoRa 大小不匹配 49954 与 32000
Updatedalpaca_lora_4bit微调lora
Updatedvicuna-lora斯坦福羊驼lora
Updated用大量开源指令遵循微调的LLM模型
UpdatedLoRA 用于培训多语言教学
UpdatedSparsebit是一个具有修剪和量化功能的工具包
Updatedqlora,节约50%模型GPU内存
Updated通过修剪研究性能提升LLM-Pruner
Updated大型语言模型的低秩适应 (LoRA)
UpdatedLoRA 调酒学以获得独特的 LLM 个性
Updatedlora 例程,适用于高瘦matmul- 高达 15 倍的加速比
Updated