论文目录 | |
摘要 | 第1-6页 |
abstract | 第6-7页 |
第一章 绪论 | 第10-17页 |
1.1 研究工作的背景与意义 | 第10-11页 |
1.2 国内外研究现状 | 第11-15页 |
1.2.1 复述生成研究现状 | 第11-13页 |
1.2.2 文本摘要研究现状 | 第13-15页 |
1.3 本文主要研究内容 | 第15页 |
1.4 论文组织架构 | 第15-17页 |
第二章 文本生成相关研究技术 | 第17-28页 |
2.1 自然语言处理的表示学习 | 第17-23页 |
2.1.1 连续词袋模型 | 第18-19页 |
2.1.2 跳字模型 | 第19-20页 |
2.1.3 FastText词向量 | 第20-22页 |
2.1.4 动态词向量技术 | 第22-23页 |
2.2 基于Seq2Seq with attention的深度学习模型 | 第23-26页 |
2.3 语言模型 | 第26-27页 |
2.3.1 自回归语言模型ARLM | 第26-27页 |
2.3.2 自编码语言模型AELM | 第27页 |
2.4 本章小节 | 第27-28页 |
第三章 基于深度学习的文本复述生成 | 第28-56页 |
3.1 引言 | 第28页 |
3.2 模型描述 | 第28-39页 |
3.2.1 特征提取器BERT | 第29-34页 |
3.2.2 文本生成器LSTM | 第34-37页 |
3.2.3 基于Bert to LSTM with Attention的模型结构 | 第37-39页 |
3.3 基于上下文理解的篇章级复述 | 第39-40页 |
3.4 融合基于feature-based和基于fine-tuning的训练模式 | 第40-41页 |
3.5 基于多样性集束搜索的生成策略 | 第41-43页 |
3.6 实验 | 第43-55页 |
3.6.1 数据集 | 第43-45页 |
3.6.2 评价指标 | 第45-48页 |
3.6.3 训练模型 | 第48-49页 |
3.6.4 实验结果及分析 | 第49-55页 |
3.7 本章小结 | 第55-56页 |
第四章 基于深度学习的文本摘要生成 | 第56-72页 |
4.1 引言 | 第56页 |
4.2 模型描述 | 第56-59页 |
4.2.1 基于模式框架的文本摘要生成问题的形式化描述 | 第56-57页 |
4.2.2 基于Separate Dual-encoder to Decoder的模型结构 | 第57-59页 |
4.3 完全基于注意力机制的模型结构 | 第59-61页 |
4.4 基于子词粒度的文本表示 | 第61-64页 |
4.5 实验 | 第64-71页 |
4.5.1 数据集 | 第64-68页 |
4.5.2 评价指标 | 第68页 |
4.5.3 训练模型 | 第68-69页 |
4.5.3.1 基于梯度累积的更新方式 | 第68-69页 |
4.5.3.2 基于Boosting方法的模型融合 | 第69页 |
4.5.4 实验结果及分析 | 第69-71页 |
4.6 本章小结 | 第71-72页 |
第五章 全文总结与展望 | 第72-74页 |
5.1 总结 | 第72-73页 |
5.2 展望 | 第73-74页 |
致谢 | 第74-75页 |
参考文献 | 第75-79页 |