论文目录 | |
摘要 | 第1-7页 |
ABSTRACT | 第7-8页 |
第一章 绪论 | 第9-15页 |
1.1 研究背景与意义 | 第9-10页 |
1.2 国内外的研究现状 | 第10-13页 |
1.2.1 深度学习领域的发展现状 | 第10-11页 |
1.2.2 深度学习在NLP领域的发展 | 第11-12页 |
1.2.3 深度学习应用于文本情感分析研究 | 第12-13页 |
1.3 论文研究内容与创新点 | 第13-14页 |
1.4 论文组织结构 | 第14-15页 |
第二章 结合改进梯度下降算法的CNNpbc文本分类模型 | 第15-25页 |
2.1 模型框架 | 第15-16页 |
2.2 模型相关技术介绍 | 第16-18页 |
2.2.1 主分量分析法 | 第16页 |
2.2.2 朴素贝叶斯分类器 | 第16-17页 |
2.2.3 经典的卷积神经网络模型概述 | 第17-18页 |
2.3 CNNpbc模型详述 | 第18-23页 |
2.3.1 分布式词向量 | 第19-20页 |
2.3.2 多窗口大小的卷积层 | 第20页 |
2.3.3 结合k-max和 avg-pooling的并行双池化层 | 第20-22页 |
2.3.4 串接层 | 第22页 |
2.3.5 文本情感特征分类器 | 第22页 |
2.3.6 情感分类模型优化算法 | 第22-23页 |
2.4 本章小结 | 第23-25页 |
第三章 结合多注意力CNN和 BiGRU的 MATT-CNN+BiGRU融合模型 | 第25-39页 |
3.1 注意力机制 | 第25-28页 |
3.1.1 Encoder-Decoder框架 | 第26-27页 |
3.1.2 注意力模型 | 第27-28页 |
3.2 GRU与 BiGRU基本结构 | 第28-29页 |
3.3 结合多注意力机制的卷积神经网络(MATT-CNN)模块 | 第29-36页 |
3.3.1 文本预处理 | 第30-32页 |
3.3.2 词向量注意力机制 | 第32-33页 |
3.3.3 位置注意力机制 | 第33-35页 |
3.3.4 词性注意力机制 | 第35页 |
3.3.5 多注意力CNN模块输入矩阵构造方法 | 第35-36页 |
3.4 文本特征融合模型总体架构(MATT-CNN+BiGRU) | 第36-38页 |
3.5 本章小结 | 第38-39页 |
第四章 实验结果与分析 | 第39-53页 |
4.1 实验环境 | 第39页 |
4.2 实验评价指标 | 第39页 |
4.3 实验数据集 | 第39-40页 |
4.3.1 CNNpbc模型实验数据集 | 第39-40页 |
4.3.2 MATT-CNN+BiGRU模型实验数据集 | 第40页 |
4.4 实验参数设置 | 第40-41页 |
4.4.1 CNNpbc模型超参数设置 | 第40-41页 |
4.4.2 MATT-CNN+BiGRU超参数设置 | 第41页 |
4.5 实验结果及分析 | 第41-51页 |
4.5.1 CNNpbc模型实验结果分析 | 第41-44页 |
4.5.2 MATT-CNN+BiGRU模型实验结果分析 | 第44-51页 |
4.6 本章总结 | 第51-53页 |
第五章 总结与展望 | 第53-55页 |
5.1 总结 | 第53-54页 |
5.2 展望 | 第54-55页 |
参考文献 | 第55-59页 |
攻读硕士学位期间的主要成果 | 第59-60页 |
致谢 | 第60-62页 |