Zessay / Language_Model_Learn

Transformer、Bert以及XLNet等源码学习记录

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

说明

 这个Repo主要记录自己学习一些经典的语言模型源码时添加的注释,便于之后回顾复习的时候使用。主要包括Transformer、Transformer-XL、Bert以及XLnet

  • Transformer: 学习的源码来自jadore801120。分为两块,首先是模型训练部分的主要代码,建议源码的阅读顺序为:Modules -> SubLayers -> Layers -> Constants -> Models ;然后是推理(inference)部分的代码,阅读顺序为Beam -> Translator。关于Optim这个相对比较简单,是原论文提到的一种加速收敛的方法,简单来说就是在前warmup次迭代时增大学习率,之后不断减小学习率,单独看一下就行。主要的难点在于束搜索代码的理解,可能需要花费一点时间。

  • XLNet:学习源码来自transformers库,主要对整个XLNet的源码流程进行注释。

About

Transformer、Bert以及XLNet等源码学习记录


Languages

Language:Python 100.0%