Rayking1433465's starred repositories
alpaca-qlora
Instruct-tune Open LLaMA / RedPajama / StableLM models on consumer hardware using QLoRA
ElasticSearch-Langchain-Chatglm2
Q&A based on elasticsearch+langchain+chatglm2 | 基于elasticsearch,langchain,chatglm2的自有知识库问答
Med-ChatGLM
Repo for Chinese Medical ChatGLM 基于中文医学知识的ChatGLM指令微调
LangChain-ChatGLM-Webui
基于LangChain和ChatGLM-6B等系列LLM的针对本地知识库的自动问答
ChatGLM2-6B
ChatGLM2-6B: An Open Bilingual Chat LLM | 开源双语对话语言模型
Chinese-LlaMA2
Repo for adapting Meta LlaMA2 in Chinese! META最新发布的LlaMA2的汉化版! (完全开源可商用)
Llama-Chinese
Llama中文社区,Llama3在线体验和微调模型已开放,实时汇总最新Llama3学习资料,已将所有代码更新适配Llama3,构建最好的中文Llama大模型,完全开源可商用
llama2-chatbot
LLaMA v2 Chatbot
multi-turn-alpaca
Multi-turn alpaca is an extension of stanford alpaca and supports multi-turn dialogue 多轮对话版alpaca
ChatGLM-Dataset-Maker
适用于ChatGLM微调的数据集生成器, 支持多轮对话
ChatGLM2-Tuning
基于ChatGLM2-6B进行微调,包括全参数、参数有效性、量化感知训练等,可实现指令微调、多轮对话微调等。
Finetune-ChatGLM2-6B
ChatGLM2-6B 全参数微调,支持多轮对话的高效微调。
High-quality-Chinese-Q-A-dataset
最大开源中文问答数据集 ,助力中文LLM.The largest open-source Chinese Q&A dataset, supporting Chinese LLM
nlp_chinese_corpus
大规模中文自然语言处理语料 Large Scale Chinese Corpus for NLP
LLM-Blender
[ACL2023] We introduce LLM-Blender, an innovative ensembling framework to attain consistently superior performance by leveraging the diverse strengths of multiple open-source LLMs. LLM-Blender cut the weaknesses through ranking and integrate the strengths through fusing generation to enhance the capability of LLMs.
LLM-eval-survey
The official GitHub page for the survey paper "A Survey on Evaluation of Large Language Models".
chatGLM-6B-QLoRA
使用peft库,对chatGLM-6B/chatGLM2-6B实现4bit的QLoRA高效微调,并做lora model和base model的merge及4bit的量化(quantize)。
qlora-chinese-LLM
使用qlora对中文大语言模型进行微调,包含ChatGLM、Chinese-LLaMA-Alpaca、BELLE
visual-openllm
something like visual-chatgpt, 文心一言的开源版
ChatGLM-Tuning
基于ChatGLM-6B + LoRA的Fintune方案
llm-action
本项目旨在分享大模型相关技术原理以及实战经验(大模型工程化、大模型应用落地)
ChatGLM-Efficient-Tuning
Fine-tuning ChatGLM-6B with PEFT | 基于 PEFT 的高效 ChatGLM 微调
Alpaca-CoT
We unified the interfaces of instruction-tuning data (e.g., CoT data), multiple LLMs and parameter-efficient methods (e.g., lora, p-tuning) together for easy use. We welcome open-source enthusiasts to initiate any meaningful PR on this repo and integrate as many LLM related technologies as possible. 我们打造了方便研究人员上手和使用大模型等微调平台,我们欢迎开源爱好者发起任何有意义的pr!