吉林大学学报(信息科学版) ›› 2023, Vol. 41 ›› Issue (5): 866-875.
陈雪松a , 詹子依a , 王浩畅b
CHEN Xuesong a , ZHAN Ziyi a , WANG Haochang b
摘要: 针对传统的命名实体识别方法无法充分学习古汉语复杂的句子结构信息以及在长序列特征提取过程中 容易带来信息损失的问题, 提出一种融合 SikuBERT( Siku Bidirectional Encoder Representation from Transformers) 模型与 MHA(Multi-Head Attention)的古汉语命名实体识别方法。 首先, 利用 SikuBERT 模型对古汉语语料进行预训练, 将训练得到的信息向量输入 BiLSTM(Bidirectional Long Short-Term Memory) 网络中提取特征, 再将 BiLSTM层的输出特征通过 MHA 分配不同的权重减少长序列的信息损失, 最后通过 CRF(Conditional Random Field)解码得到预测的序列标签。 实验表明, 与常用的 BiLSTM-CRF、 BERT-BiLSTM-CRF 等模型相比, 该方法 的 F1 值有显著提升, 证明了该方法能有效提升古汉语命名实体识别的效果。
中图分类号: