SpongebBob / Finetune-ChatGLM2-6B

ChatGLM2-6B 全参数微调,支持多轮对话的高效微调。

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

微调时在runing tokenizer on train dataset这一步卡住

underwoodnoble opened this issue · comments

模型加载正常,但是在Runing tokenizer on train dataset这一步卡住,进度条一直不变
使用的显卡型号为A800 80G,训练时开了两张卡。CPU的型号为Intel(R) Xeon(R) Silver 4316 CPU,开了4个核
下面是训练的参数设置

#!/bin/bash

LR=6e-6
DATE=1009

deepspeed --num_gpus=2 main.py
--deepspeed deepspeed.json
--do_train
--train_file /data/nobel/code/glm/Finetune-ChatGLM2-6B/dataset/trainset.json
--overwrite_cache
--model_name_or_path /data/nobel/code/glm/ChatGLM2-6B/chatglm2-6b
--output_dir ./output/adgen-chatglm-6b-ft-$LR-$DATE
--overwrite_output_dir
--preprocessing_num_workers 4
--max_length 1000
--per_device_train_batch_size 1
--per_device_eval_batch_size 1
--gradient_accumulation_steps 12
--predict_with_generate
--num_train_epochs 3
--logging_steps 20
--save_steps 1000
--learning_rate $LR
--do_eval False
--fp16 True
--save_total_limit 5 \

解决了,原因是漏了一个参数prompt_column