luzhongqiu / TigerBot

TigerBot: A multi-language multi-task LLM

Home Page:https://www.tigerbot.com

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

TigerBot

Tiger

A cutting-edge foundation for your very own LLM.

以世界级的基础大模型,贡献于**式的创新。

🌐 TigerBot • 🤗 Hugging Face

中文 | English

最新发布

  • [7/08/2023] TigerBot 2023.07 (V2) release [paper] 🔥

    • tigerbot-7b-base (v2), 在 1.5TB 高质量数据上充分预训练(千卡耗时4周,算力成本~300万),在中英文公开数据测评优于 bloom/llama 同等模型 15-30%;[测评][huggingface]

    • tigerbot-7b-sft (v2), 在 base-v2 基础上微调的 sft-v2 在2000万/20G 高质量清洗和配比的数据上充分训练,在9项公开语料测评上优于 sft-v1 9.3%;[测评][huggingface]

      新模型可通过以下代码加载:

      import transformers
      
      # 下载过旧版的用户需要指定`force_download=True`避免使用旧版缓存
      model_sft = transformers.AutoModelForCausalLM.from_pretrained('TigerResearch/tigerbot-7b-sft', force_download=True)
      model_base = transformers.AutoModelForCausalLM.from_pretrained('TigerResearch/tigerbot-7b-base', force_download=True)
    • tigerbot 开启搜索模式,对接主流中英文搜索引擎,和结构化工具(如天气,股市,计算器等),打开 LLM+search 的应用场景,同时开放 chat-api with internet search switch;[TigerBot with search mode (default off) 🌏][paper]

    • tigerbot 开启流式生成模式,同时开放 chat-api with streaming switch; [TigerBot][TigerBot-API]

    • tigerbot-api 全新升级,开放 LLM 应用开发常用的 api 工具,包括:LLM (chat, plugin, finetune), text (embedding, summarization, pdf2text), vision (text2image)。[TigerBot-API]

  • [6/27/2023] PEFT TigerBot with QLoRA: 在单张 3090 上使用 qlora 微调 tigerbot-7b-sft,加速 16 倍,和/或减少 GPU3/4,同时防止了对下游数据的过拟合。[code] [paper] [model]

tigerbot chat-api sample

tigerbot chat-api sample

摘要

TigerBot 是一个多语言多任务的大规模语言模型(LLM)。根据 OpenAI InstructGPT 论文在公开 NLP 数据集上的自动评测,TigerBot-7B 达到 OpenAI 同样大小模型的综合表现的 96%,并且这只是我们的 MVP,在此我们将如下探索成果开源:

  • 模型:TigerBot-7B, TigerBot-7B-base,TigerBot-180B (research version),
  • 代码:基本训练和推理代码,包括双卡推理 180B 模型的量化和推理代码,
  • 数据:预训练 100G,从 2TB 过滤后的数据中经过去噪去重清洗而得;监督微调 1G 或 100 万条数据,按比例涵盖用户指令常见的 10 大类 120 小类任务,
  • API: chat, plugin, finetune, 让用户能在半小时内无代码的训练和使用专属于自己的大模型和数据,
  • 领域数据:涵盖金融,法律,百科,广邀大模型应用开发者,一起打造**的世界级的应用。

我们在 BLOOM 基础上,在模型架构和算法上做了如下优化:

  • 指令完成监督微调的创新算法以获得更好的可学习型(learnability),
  • 运用 ensemble 和 probabilistic modeling 的方法实现更可控的事实性(factuality)和创造性(generativeness),
  • 在并行训练上,我们突破了 deep-speed 等主流框架中若干内存和通信问题,使得在千卡环境下数月无间断,
  • 对中文语言的更不规则的分布,从 tokenizer 到训练算法上做了更适合的算法优化。

目录

环境安装

conda create --name tigerbot python=3.8
conda activate tigerbot
conda install pytorch torchvision torchaudio pytorch-cuda=11.7 -c pytorch -c nvidia

git clone https://github.com/TigerResearch/TigerBot
cd TigerBot
pip install -r requirements.txt

模型下载

Tigerbot-7B
Tigerbot-7B Bits memory(GB)
tigerbot-7b-sft (chat model) 16 17.2
tigerbot-7b-base (pretrained model) 16 17.2
tigerbot-7b-sft-4bit-128g (quant model) 4 8.5
Tigerbot-180B-Research
Tigerbot-180B-Research Bits memory(GB)
tigerbot-180b-sft (chat model) 16 347.6
tigerbot-180b-sft-4bit-128g (quant model) 4 108.5

除了 huggingface,模型也可以从百度网盘获取(其中 tigerbot-180b-sft 需要下载 part1/part2 两部分)

历史版本

训练和推理

预训练

启动训练前安装 DeepSpeed

git clone git@github.com:microsoft/DeepSpeed.git
cd DeepSpeed
rm -rf build
TORCH_CUDA_ARCH_LIST="8.0" DS_BUILD_CPU_ADAM=1 DS_BUILD_UTILS=1 pip install . \
--global-option="build_ext" --global-option="-j8" --no-cache -v \
--disable-pip-version-check 2>&1 | tee build.log

TORCH_CUDA_ARCH_LIST 根据你运行的 GPU 架构做调整,获取 TORCH_CUDA_ARCH_LIST

CUDA_VISIBLE_DEVICES=0 python -c "import torch; print(torch.cuda.get_device_capability())"

如果返回的结果是(8, 0),那么 TORCH_CUDA_ARCH_LIST="8.0"

启动训练

启动tigerbot-7b训练至少需要 1 x A100 (40GB), 启动tigerbot-180b至少需要 16 x A100 (40GB)

deepspeed \
--include="localhost:0,1,2,3" \
./train_clm.py \
--deepspeed ./ds_config/ds_config_zero3.json \
--model_name_or_path TigerResearch/tigerbot-7b-base \
--dataset_name TigerResearch/dev_pretrain \
--do_train \
--output_dir ./ckpt-clm \
--overwrite_output_dir \
--preprocess_num_workers 8 \
--num_train_epochs 5 \
--learning_rate 1e-5 \
--evaluation_strategy steps \
--eval_steps 10 \
--bf16 True \
--save_strategy steps \
--save_steps 10 \
--save_total_limit 2 \
--logging_steps 10 \
--tf32 True \
--per_device_train_batch_size 2 \
--per_device_eval_batch_size 2

微调

启动tigerbot-7b训练至少需要 1 x A100 (40GB), 启动tigerbot-180b至少需要 16 x A100 (40GB)

启动训练

deepspeed \
--include="localhost:0,1,2,3" \
./train_sft.py \
--deepspeed ./ds_config/ds_config_zero3.json \
--model_name_or_path TigerResearch/tigerbot-7b-base \
--dataset_name TigerResearch/dev_sft \
--do_train \
--output_dir ./ckpt-sft \
--overwrite_output_dir \
--preprocess_num_workers 8 \
--num_train_epochs 5 \
--learning_rate 1e-5 \
--evaluation_strategy steps \
--eval_steps 10 \
--bf16 True \
--save_strategy steps \
--save_steps 10 \
--save_total_limit 2 \
--logging_steps 10 \
--tf32 True \
--per_device_train_batch_size 2 \
--per_device_eval_batch_size 2

推理

你可以在该命令行中进行模型推理对话,输入 clear 可以清空对话历史,输入 exit 终止推理对话。

命令行推理

启动命令行模型推理命如下:

单卡推理

tigerbot-7b-sft 推理可在 1 张 RTX3090 上进行, tigerbot-7b-sft-4bit-128g量化版本模型需要参照量化模块的推理代码。

CUDA_VISIBLE_DEVICES=0 python infer.py --model_path ${MODEL_DIR}

如果要启用流式输出,请将infer.py换成infer_stream.py,输出将从一次性输出变成逐句输出。

CUDA_VISIBLE_DEVICES=0 python ./other_infer/infer_stream.py --model_path ${MODEL_DIR}

如果要启用 web 界面进行问答,将web_demo.py第 12 行的 model_path 对应的模型路径改成你的模型所在路径即可,然后运行下面的命令启用 web 界面。

CUDA_VISIBLE_DEVICES=0 python ./apps/web_demo.py

tigerbot-7b-base 则用续写(非问答)的推理代码。

CUDA_VISIBLE_DEVICES=0 python ./other_infer/infer_pretrain.py --model_path ${PRETRAIN_MODEL_DIR}

多卡推理

tigerbot-180b-sft 推理可在 5 张 A100(80G)上进行

CUDA_VISIBLE_DEVICES=0,1,2,3,4 python infer.py --model_path ${MODEL_DIR}

部署 API

如果要启用 api,需要先安装 fastapi,将 193 行的模型路径改成你的,然后运行服务。

pip install "fastapi[all]"
python ./apps/api.py

之后可以测试客户端通过 web 服务调用 api

python ./apps/client.py

也可以客户端通过 web 服务异步调用 api

python ./apps/async_client.py

也可以通过之前的 web 页面来调用 web 服务生成文字。

python ./apps/web_api_demo.py

量化

我们使用GPTQ算法和GPTQ-for-LLaMa实现量化:

切换到 gptq 目录

cd gptq

模型量化

CUDA_VISIBLE_DEVICES=0 python tigerbot.py ${MODEL_DIR} c4 --wbits 4 --act-order --groupsize 128 --save ${MODEL_DIR}/tigerbot-7b-4bit-128g.pt

量化模型单卡推理

tigerbot-7b-sft-4bit-128g 推理可在一张 RTX3090 上进行 其中,${MODEL_DIR} 为你的模型配置文件路径,

CUDA_VISIBLE_DEVICES=0 python tigerbot_infer.py ${MODEL_DIR} --wbits 4 --groupsize 128 --load ${MODEL_DIR}/tigerbot-7b-4bit-128g.pt

量化模型多卡推理

tigerbot-180b-research-4bit-128g 推理可在两张 A100(80G)上进行

CUDA_VISIBLE_DEVICES=0,1 python tigerbot_infer.py ${MODEL_DIR} --wbits 4 --groupsize 128 --load ${MODEL_DIR}/tigerbot-4bit-128g.pt

若量化模型为多个分片存储,推理命令如下

CUDA_VISIBLE_DEVICES=0,1 python tigerbot_infer.py ${MODEL_DIR} --wbits 4 --groupsize 128 --load "${MODEL_DIR}/tigerbot-4bit-128g-*.pt"

测评

tigerbot-7b-base v2 模型测评结果

image

tigerbot-7b-sft v2 模型测评结果

image

V1版SFT和base模型测评结果

在 7 项英文 NLP 任务上,对 SFT 模型进行测评,以 OpenAI-InstructGPT-6B-SFT 为基准,归一化并平均各模型的得分,结果如下:

image

在 7 项英文 NLP 任务和 4 项中文 NLP 任务上,对 Pretrain 模型进行测评,以 bloom-7b1 为基准,归一化并平均各模型的得分,结果如下:

image

开源数据集

预训练数据

基于 GPT3 的 pretrain 的数据分布,采集中文书籍,互联网,和百科类数据,并通过数据源质量分过滤和 tf-idf soft deduping,从 20TB 数据过滤到 2TB,保持语言和类目的比例,并在此基础上随机抽样 100G 数据开源:

Tiger

  • 中文书籍及代码细分:

中文书籍分类代码语言

微调数据

数据搜集

模型中使用的微调数据的搜集**如下:

a. 从用户指令的自然分布,人工标注总结 10 大类,120 小类任务,例如,事实性问答,开放式创作,语法分析,代码编辑等;

b. self-instruct: 参考 Alpaca self-instruct 方法,扩充中英文 seed_tasks,增加一些中文习惯种子问题,基于此生成 2M 中文(本次开源 0.5M)及 0.1M 英文(本次开源 50k);

c. human-labeling: 基于人工写题及答案、网络搜集方式,整理加工问答集数据,在开源列表中标识为[自研]部分,本次开放部分数据;

d. open-source data cleaning: 基于各类公开数据集转换清洗,其中[自研*]部分,表示基于原始数据进行二次开发后得到,[开源]部分数据集一般原始数据即为较规整的问答数据,进行简单清洗得到;

e. 总的数据分布符合用户指令自然分布。

数据清洗 - 由于各类数据质量存在差异,通过 Alpaca Self-Instruct 生成的数据亦存在各种问题。因此,我们经过细致的人工校验和分类,总结出一套全面且系统化的数据清洗规则与方法。 - 整体规则可以划分为**过滤类规则**和**清洗类规则**两大类。其中,命中过滤规则的数据项将被弃用,而清洗规则旨在处理并保留所需的数据。 - 同时,在数据梳理与积累的过程中,我们也不断对清洗规则进行迭代和优化。 - 通用清洗规则描述如下所示:

a. 过滤类-敏感词规则:基于积累的敏感词库,清洗丢弃涉政、涉黄、涉暴、涉恐等数据项;

b. 过滤类-无效输入输出:此类规则主要针对 Self-Instruct 生成数据缺陷进行专项清理,根据输入输出分别制定规则,以丢弃一些无效的数据项;

无效输入如"<一段文本>",无效输出如"[图画]";

c. 清洗类-关键词规则:根据整理的关键词/正则列表进行数据的替换,包括:清理特殊标志位字符、清理非可见字符、清理标签、繁简转换等;

d. 清洗类-特殊逻辑规则:此类规则用于清洗一些特殊现象数据,如指令与输入重复等,如下所示:

{"instruction": "描述如何做一道红烧肉。请提供食材和详细的步骤。", "input": "请描述如何做一道红烧肉,提供食材和详细步骤。", ...}

数据开源 - 指令数据集, 当前开源 120W 问答对,磁盘空间 1.1G (数据集开放到 huggingface,中英文指令明细及下载如下表) - 中文-微调指令集-合集 - 53W 条 - 下载 [hugging face] - 英文-微调指令集-合集 - 67W 条 - 下载 [hugging face]
类型 语言 数据集 数量 来源
alpaca 中文 中文 tigerbot-alpaca-zh-0.5m 0.5m 自研
百科问答 中文 tigerbot-wiki-qa-1k 1k 自研
名著问答 中文 tigerbot-book-qa-1k 1k 自研
猜谜语 中文 tigerbot-riddle-qa-1k 1k 自研
阅读理解 中文 tigerbot-superclue-c3-zh-5k 5k 自研*
问答 中文 tigerbot-HC3-zh-12k 12k 开源
知乎问答 中文 tigerbot-zhihu-zh-10k 10k 开源
alpaca 英文 英文 tigerbot-alpaca-en-50k 50k 自研
头脑风暴 英文 tigerbot-dolly-Brainstorming-en-1.7k 1.7k 开源
分类 英文 tigerbot-dolly-Classification-en-2k 2k 开源
数学问题 英文 tigerbot-gsm-8k-en 8k 开源
代码 英文 tigerbot-kaggle-leetcodesolutions-en-2k 2k 自研*
食谱生成 英文 tigerbot-kaggle-recipes-en-2k 2k 开源
病历生成 英文 tigerbot-mt-note-generation-en 450 开源
多轮对话 英文 tigerbot-OIG-multichat-en-50k 50k 自研*
综合问答 英文 tigerbot-stackexchange-qa-en-0.5m 0.5m 开源
wiki 问答 英文 tigerbot-wiki-qa-bart-en-10k 10k 开源
如何做类教程 英文 tigerbot-youtube-howto-en-50k 50k 开源
总量 120W 条

更多数据集陆续整理开放中...

领域数据

开放金融、法律、百科相关领域数据,作为 rethink 外部数据源
类型 数量
金融-研报 2W 篇
金融-财报 2500 篇
法律 11 类 5.5W 条款
百科 10W 词条

API

示例 tigerbot chat-api sample tigerbot chat-api sample
示例 tigerbot chat-api sample
示例 tigerbot chat-api sample
示例 tigerbot chat-api sample
示例 tigerbot chat-api sample
示例 tigerbot chat-api sample
示例 tigerbot chat-api sample

其他

案例

image image image image image image

开发者生态
加入我们

产品链接

https://www.tigerbot.com

联系电话

021-63888086

联系邮箱

cong.fu@tigerbot.com

wei.cai@tigerbot.com

微信讨论群

Tiger

致谢 - [Bloom](https://arxiv.org/abs/2211.05100): 我们基于 Bloom 架构进行训练 - [GPTQ-for-LLaMa](https://github.com/qwopqwop200/GPTQ-for-LLaMa): 模型量化代码参考来自于该项目
局限性与免责声明 当前模型可能存在生成幻觉、误导性、或歧视性内容。请谨慎使用 TigerBot 系列模型生成的内容,请勿将生成的有害内容进行传播。

如需将模型公开使用或者商用,模型服务所产生的不良影响或者有害言论由服务方负责,本项目开发者不承担任何因使用本项目(包含但不限于数据、模型、代码等)导致的危害或损失。

About

TigerBot: A multi-language multi-task LLM

https://www.tigerbot.com

License:Apache License 2.0


Languages

Language:Python 100.0%