BeHappyForMe / UniLM_summarization

使用UniLM实现中文文本摘要

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

UniLM_summarization

使用中文BERT预训练模型结合微软的UniLM实现中文文本摘要

Unified Language Model Pre-training微软提出的预训练模型,融合了四种LM,即MLM、从左至右的LM、从右至左的LM 及seq2seq LM,在多任务上达到 state-of-the-art。BERT模型因为使用的MLM方式,在 文本生成方面是一大短板,UniLM通过灵活应用mask技术,将文本生成中seq2seq模型 完美融入BERT中,补齐了BERT在文本生成方面的短板

本文在崔一鸣教授开源的中文BERT预训练模型基础上,使用UniLM进行微调,实现中文文本摘要任务。代码基于PyTorch实现,数据集链接: TODO

About

使用UniLM实现中文文本摘要

License:Apache License 2.0


Languages

Language:Python 100.0%