训练无法达到预期
jitingcn opened this issue · comments
过拟合
自己调一下参,batchsize取1,learningrate取0.1开始,试试。
调节到1e-5之后效果不错,就是对decay的设置还有点不明白
INFO: Epoch 290/600
INFO: - Training: - 397s - perplexity: 1.242942 - lr: 0.000010 - loss: 0.171819
INFO: - Eval: perplexity is -1.20 || BLEU-4 is 87.45 || EditDistance is 91.30 || ExactMatchScore is 36.78
INFO: - New best score (20.36)!
调节到1e-5之后效果不错,就是对decay的设置还有点不明白
INFO: Epoch 290/600 INFO: - Training: - 397s - perplexity: 1.242942 - lr: 0.000010 - loss: 0.171819 INFO: - Eval: perplexity is -1.20 || BLEU-4 is 87.45 || EditDistance is 91.30 || ExactMatchScore is 36.78 INFO: - New best score (20.36)!
您好,这是我的参数设置,已经将lr设置为了1e-5
{
"export_name": "training.json",
"device": "cuda:3",
"criterion_method": "CrossEntropyLoss",
"n_epochs": 600,
"batch_size": 1,
"dropout": 0.99,
"clip": -1,
"lr_method": "adam",
"lr_scheduler": "CosineAnnealingLR",
"lr_init": 1e-3,
"lr_min": 1e-5,
"start_decay": 6,
"end_decay": 13,
"lr_warm": 1e-4,
"end_warm": 0
}
训练时EM值始终为0,可以帮忙看一下问题出在哪里了吗?
从这个配置没问题,可能是训练时间短?一般要6小时左右才可以看到EM显著增加,在这之前的很长一段时间,只能看到perplexity在变
从这个配置没问题,可能是训练时间短?一般要6小时左右才可以看到EM显著增加,在这之前的很长一段时间,只能看到perplexity在变
感谢大佬回复。
我训练结束后:
- Eval: BLEU-4 is 5.88 || perplexity is -11.74 || EditDistance is 20.51 || ExactMatchScore is 0.00
我是直接下载的full数据集,但在训练之前也build了一下,build结束显示:
Building vocab... - done. 410/556 tokens added to vocab.
Writing vocab... - done. 410 tokens
这里的410/556是否是字典没有构建完全,导致训练效果不好?
调节到1e-5之后效果不错,就是对衰减的设置还有点不明白
INFO: Epoch 290/600 INFO: - Training: - 397s - perplexity: 1.242942 - lr: 0.000010 - loss: 0.171819 INFO: - Eval: perplexity is -1.20 || BLEU-4 is 87.45 || EditDistance is 91.30 || ExactMatchScore is 36.78 INFO: - New best score (20.36)!
你好,最后效果训练出来吗?
可以分享一下经验吗,提前谢谢你。