Skip to content

zozero/BERT-PyTorch

Repository files navigation

项目说明

我再次重新修改了命名来,之前的命名不够准确,这一次看了论文,希望我的理解没有什么太大问题。

该代码是对Bert-Chinese-Text-Classification-Pytorch的仿写,只实现了部分代码,约四分之一。

需要添加参数--模型 外变双向编码器表示法库

原项目地址

预训练模型下载地址。这是我进行修改后的模型,如果模型时从原项目下载的,需要运行修改预训练的模型(),来适配中文的命名方式,该函数在运行.py中。 模型需要放在预训练的模型文件夹中。

可以在测试代码用 文件夹下找到我用来测试代码是否能跑通的数据集。当然你也可以下载原版的数据集

命名说明

变量名的统一性是必要,这里使得代码工整有序,而且无形中对变量进行了分类。

例如:文字的嵌入层、片段的嵌入层、位置的嵌入层;通过两个字知道了作用,通过后三个字知道了类型。

变量名字数的多少取决于是否能表达其意和是否能区分变量,当然也可以考虑是否顺口来取名。

例如:数量这个词就可以分别用数和量来表示,可以根据是否顺口、是否符合语境来具体使用哪个词。

About

外变双向编码器表示法的火炬版本(bert)中文命名

Topics

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages