吉林大学学报(信息科学版) ›› 2023, Vol. 41 ›› Issue (6): 1048-1053.
陈雪松, 邹 梦
CHEN Xuesong, ZOU Meng
摘要: 针对传统语言模型不能解决深层双向表征和分类模型不能充分捕获文本显著特征的问题, 提出了一种基 于 BERT-BiGRU-CNN( Bidirectional Encoder Representation from Transformers-Bidirectional Gating Recurrent Unit- Convolutional Neural Networks)的文本分类模型。 首先, 该模型使用 BERT 预训练语言模型进行文本表示; 其次, 将 BERT 的输出数据输入 BiGRU 中, 以捕获文本的全局语义信息; 然后, 将 BiGRU 层的结果输入 CNN 中, 捕获文本局部语义特征; 最后, 将特征向量输入 Softmax 层得到分类结果。 实验采用中文新闻文本标题数据集, 结果表明, 基于 BERT-BiGRU-CNN 的文本分类模型在数据集上的 F1 值达到 0. 948 5, 优于其他基线模型, 证明 了 BERT-BiGRU-CNN 模型可提升短文本的分类性能。
中图分类号: