Skip to content

using bilstm-crf,bert and other methods to do sequence tagging task

Notifications You must be signed in to change notification settings

qiufengyuyi/sequence_tagging

Repository files navigation

sequence tagging project

-- 更新update 2020.08.16: --

增加了论文实现Enhancing Pre-trained Chinese Character Representation with Word-aligned Attention ,基于pytorch 1.6.0,以及huggingface的transformers 2.11.0。分词工具使用了百度的lac2.0,thulac,ltp,请自行安装这些工具。

另外,我上传了已经分词好的结果,在data下面的set_orig_data_*.json中。如果想自行分词,请参考word_seg_utils.py代码。

可以使用test_data_processing.py来生成数据文件。

训练pytorch运行脚本:

bash run_torch.sh

reference

pytorch ner框架实现参考了 https://github.com/lonePatient/BERT-NER-Pytorch ,mwa实现参考了 https://github.com/lsvih/MWA


-- 更新update 2020.02.05: --

补充了缺失的代码和脚本,同时加了一点样例数据,方便测试代码是否可以完整运行。


依赖包:主要是tensorflow 1.12.0,其余见requirements.txt

目前项目包含了传统的Bilstm-crf模型和使用了bert的模型。

针对的数据:目前是基于字符级别标注的实体识别数据。使用网上公开的字符级的中文词向量。

TODO:

1、结合词级别的词向量与字符向量结合,做字符级别的tagging,已完成100%

2、joint learning with intent classification

3、不用bert,在lstm-crf基础上进行优化,增加cnn的架构,或者attention机制。已完成100%

4、seq label 转化为阅读理解问题。参考最新的论文 A Unified MRC Framework for Named Entity Recognition 已完成100%

使用的词向量来源于:

https://github.com/Embedding/Chinese-Word-Vectors

词向量模型存放在data/embedding_data路径下

使用的bert预训练模型为:

chinese_roberta_wwm_ext_L-12_H-768_A-12

bert预训练模型存放在data/根路径下

训练数据目前暂时没法传上来,但是格式可以如下所示:

海 钓 比 赛 地 点 在 厦 门 与 金 门 之 间 的 海 域 。

O O O O O O O B-LOC I-LOC O B-LOC I-LOC O O O O O O

如上为一条样本。项目中的data_preprocessing会根据不同的方法做预处理,并将处理后的数据用.npy格式存储。

目前bert+mrc训练和评测没有问题,其他方法待优化完善。

训练运行脚本:

bash run_train.sh

评测运行脚本:

bash run_pred.sh

实验结果部分汇总:

method f1-micro-avg
bilstm+$crf_{baseline}$ 0.8702
bilstm+crf+wordemb 0.8783
bilstm+cnn+crf+wordemb 0.8818
bert+celoss 0.9333
bert+bilstm+crf 0.9387
bert+diceloss 0.9354
bert+mrc+celoss 0.9550
bert+mrc+focalloss 0.9580

About

using bilstm-crf,bert and other methods to do sequence tagging task

Topics

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published