ckiplab / ckip-transformers

CKIP Transformers

Home Page:https://ckip-transformers.readthedocs.io

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

請教BERT-base-chinese預訓練方式

andy23andy7980 opened this issue · comments

想請教一下,
貴單位BERT-base-chinese預訓練方式是完全遵照原始BERT的方式,
只有將資料集換成繁體中文、Tokenizer改變是嗎?

感謝

Training 使用 huggingface v3.4.0 的 language modeling example,tokenizer 使用 bert-base-chinese (此 tokenizer 本身就包含繁中 token)。

謝謝老師回覆