论文目录 | |
摘要 | 第1-5页 |
Acknowledgements | 第5-6页 |
Abstract | 第6-16页 |
Abbreviations | 第16-18页 |
1 Introduction | 第18-32页 |
1.1 Motivation | 第18页 |
1.2 Problem Statement | 第18-19页 |
1.3 Research Questions | 第19页 |
1.4 Main Research Achievements/Contributions | 第19-20页 |
1.5 Artificial Neural Network(ANN) | 第20页 |
1.6 Ensemble Learning | 第20-21页 |
1.7 Bagging | 第21-22页 |
1.8 Boosting | 第22-23页 |
1.9 ELM-Ensemble | 第23-26页 |
1.9.1 Ensemble Diversity | 第24-25页 |
1.9.2 Data Split | 第25-26页 |
1.9.3 The Base Classifiers | 第26页 |
1.10 The Ensembles' Framework of Extreme Learning Machines for Classification | 第26-30页 |
1.10.1 Goals | 第27-28页 |
1.10.2 Data Preparing | 第28页 |
1.10.3 Model Training | 第28-29页 |
1.10.4 Model Fusion | 第29-30页 |
1.11 Thesis Structure | 第30-32页 |
2 Related work | 第32-41页 |
2.1 SVM—Theorem | 第32-34页 |
2.2 Random Vector Functional Link (RVFL) | 第34-35页 |
2.3 ELM-Theorem | 第35-37页 |
2.4 Multi-kernel Extreme Learning Machine | 第37-38页 |
2.5 Multi-Kernel Established on Ensemble Learning | 第38-40页 |
2.6 Conclusion | 第40-41页 |
3 New Ensemble for Classification Using Extreme Learning Machines | 第41-63页 |
3.1 Introduction | 第41-42页 |
3.2 Architecture | 第42-45页 |
3.3 Implementation | 第45-46页 |
3.3.1 Majority Vote | 第45页 |
3.3.2 Weighted Sum | 第45-46页 |
3.4 Simulation and Discussion | 第46-62页 |
3.4.1 Simulation Setting | 第46-47页 |
3.4.2 User-Specified Parameters | 第47-48页 |
3.4.3 Metrics | 第48-50页 |
3.4.4 Diversity Measures | 第50-52页 |
3.4.5 Statistical Tests | 第52-53页 |
3.4.6 Statistical Results | 第53-54页 |
3.4.7 Q-Statistic Experiments | 第54-56页 |
3.4.8 Performance Analysis and Discussion | 第56-59页 |
3.4.9 Computational Time Complexity Analysis | 第59-62页 |
3.5 Conclusion | 第62-63页 |
4 A Heterogeneous AdaBoost Ensemble based Extreme Learning Machines for Imbalanced Data | 第63-78页 |
4.1 Introduction | 第64-66页 |
4.2 AdaBoost | 第66页 |
4.3 Advanced AdaBoost Ensemble based Extreme Learning Machines | 第66-69页 |
4.3.1 Architecture | 第67页 |
4.3.2 Implementation | 第67-68页 |
4.3.3 Testing Phase | 第68-69页 |
4.4 Simulation and Discussion | 第69-77页 |
4.4.1 Simulation Settings | 第69-71页 |
4.4.2 Parameter Setting | 第71页 |
4.4.3 Evaluation Metrics | 第71-72页 |
4.4.4 Performance Analysis and Discussion | 第72-74页 |
4.4.5 Statistical Test Result | 第74-76页 |
4.4.6 Computational Time Complexity Analysis | 第76-77页 |
4.5 Conclusion | 第77-78页 |
5 Heterogeneous Ensemble of Extreme Learning Machine with Correntropy and Negative Correlation | 第78-94页 |
5.1 Introduction | 第78-80页 |
5.2 Correntropy | 第80-81页 |
5.3 Negative Correlation Learning | 第81页 |
5.4 The Proposed Ensemble HE~2LM | 第81-85页 |
5.4.1 Architecture | 第83-84页 |
5.4.2 Implementation | 第84-85页 |
5.5 Simulation and Discussion | 第85-93页 |
5.5.1 Simulation Settings | 第85-86页 |
5.5.2 Synthetic Data | 第86页 |
5.5.3 User-Specified Parameters | 第86-88页 |
5.5.4 Simulation Results | 第88-91页 |
5.5.5 Computational Time Complexity Analysis | 第91-93页 |
5.6 Conclusion | 第93-94页 |
6 Ensemble Learning with Multi-Kernel Semi-Supervised ELM | 第94-108页 |
6.1 Semi-supervised ELM (SSELM) | 第94-99页 |
6.2 Implementation | 第99-100页 |
6.3 Simulation and Discussion | 第100-107页 |
6.3.1 Data-sets | 第100-102页 |
6.3.2 Simulation Settings | 第102-103页 |
6.3.3 Statistical Tests | 第103-104页 |
6.3.4 Statistical Results | 第104页 |
6.3.5 Performance Results | 第104-106页 |
6.3.6 Computational Time Complexity Analysis | 第106-107页 |
6.4 Conclusion | 第107-108页 |
7 The Applications in Large-Scale Data-sets | 第108-121页 |
7.1 Data-sets | 第108-111页 |
7.2 User-Specified Parameters | 第111页 |
7.3 Metrics | 第111-113页 |
7.4 Results | 第113-114页 |
7.5 Case Study 1: Functional Magnetic Resonance Imaging Data | 第114-115页 |
7.6 Case Study 2: Speaker Recognition | 第115-118页 |
7.7 Case Study 3: CoverType Data | 第118-121页 |
8 Conclusion | 第121-125页 |
Author's Publication | 第125-126页 |
Bibliography | 第126-141页 |
作者简历及在学研究成果 | 第141-143页 |
学位论文数据集 | 第143页 |