吉林大学学报(信息科学版) ›› 2023, Vol. 41 ›› Issue (2): 306-314.
王灿宇1 , 孙晓海1,2 , 吴叶辉1 , 季荣彪1 , 李亚东1 , 张少如3 , 杨士豪3
WANG Canyu 1 , SUN Xiaohai 1,2 , WU Yehui 1 , JI Rongbiao 1 , LI Yadong 1 , ZHANG Shaoru 3 , YANG Shihao 3
摘要: 为解决训练过程中需要句子级标签的问题, 提出一种基于深度强化学习的无标签抽取式摘要生成 方法, 将文本摘要转化为 Q-learning 问题, 并利用 DQN( Deep Q-Network) 学习 Q 函数。 为有效表示文档, 利用BERT(Bidirectional Encoder Representations from Transformers)作为句子编码器, Transformer 作为文档编码 器。 解码器充分考虑了句子的信息富集度、 显著性、 位置重要性以及其与当前摘要之间的冗余程度等重要性 等信息。 该方法在抽取摘要时不需要句子级标签, 可显著减少标注工作量。 实验结果表明, 该方法在 CNN (Cable News Network) / DailyMail 数据集上取得了最高的 Rouge-L(38. 35) 以及可比较的 Rouge-1 (42. 07) 和 Rouge-2 (18. 32) 。
中图分类号: