ZeroRin / BertGCN

Geek Repo:Geek Repo

Github PK Tool:Github PK Tool

您好,我这边有个小小的疑问,为什么单词节点不用glove之类的词向量进行初始化呢,您有做过相关的实验吗

clearloveclearlove opened this issue · comments

您好,我这边有个小小的疑问,为什么单词节点不用glove之类的词向量进行初始化呢,您有做过相关的实验吗

有考虑过但没来得及去做, 后续换方向了这边也就没怎么继续推进

您好,我这边有个小小的疑问,为什么单词节点不用glove之类的词向量进行初始化呢,您有做过相关的实验吗

我看了代码,好像所有的节点都是用BERT的表示作为初始化,这样词的节点表示永远为零。

您好,我这边有个小小的疑问,为什么单词节点不用glove之类的词向量进行初始化呢,您有做过相关的实验吗

我看了代码,好像所有的节点都是用BERT的表示作为初始化,这样词的节点表示永远为零。

想请教一下,这里的BERT不是预训练的BERT么?