THUDM / SwissArmyTransformer

SwissArmyTransformer is a flexible and powerful library to develop your own Transformer variants.

Home Page:https://THUDM.github.io/SwissArmyTransformer

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

请问断点续训应该如何设置

elesun2018 opened this issue · comments

image
没有找到优化器保存呢,
断点续训 如何继承 优化器

学习率继承方面:只看到client_lr_scheduler保存,但是没有找到client_lr_scheduler的加载和调用

image
请问optimizer不用继承前期训练的学习器,lr_scheduler是通过args.iteration继承的前期训练的学习率吗

能否指点一下,谢谢

实在抱歉,sat目前还不支持optmizer的断点复原。

因为optimizer状态一般会占用比较大的磁盘空间,所以我们没有保存optmizer。如果希望通过iteration来继承学习率,需要将--mode finetune换成--mode pretrain