摘要 | 第5-7页 |
ABSTRACT | 第7-8页 |
List of Abbreviations | 第14-22页 |
Chapter 1 Introduction | 第22-40页 |
1.1. Rough Set Theory (RST) | 第26-27页 |
1.2. Fuzzy C-Mean Clustering (FCM) | 第27-28页 |
1.3. Fuzzy Rough C-Mean Clustering (FRCM) | 第28-30页 |
1.4. Rough Set Attributes Reduction (RSAR) | 第30-31页 |
1.5. Convolution Neural Network | 第31-34页 |
1.6. Motivations | 第34-36页 |
1.6.1. Motivation of Fuzzy Rough C-Mean Based Unsupervised CNN Clustering forLarge-Scale Image Data | 第34-35页 |
1.6.2. Motivation of the A Semi-Supervised CNN with Fuzzy Rough C-Mean forImage Classification | 第35页 |
1.6.3. Motivation of Rough-KNN Noise-Filtered Convolutional Neural Network forImage Classification | 第35-36页 |
1.6.4. Motivation of Rough Noise-Filtered Easy Ensemble for Software FaultPrediction | 第36页 |
1.7. Contributions and Organization | 第36-40页 |
1.7.1. Contribution of Fuzzy Rough C-Mean Based Unsupervised CNN Clusteringfor Large-Scale Image Data | 第36-37页 |
1.7.2. Contribution of a Semi-Supervised CNN with Fuzzy Rough C-Mean for ImageClassification | 第37页 |
1.7.3. Contribution of Rough-KNN Noise-Filtered Convolutional Neural Networkfor Image Classification | 第37-38页 |
1.7.4. Contribution of Rough Noise-Filtered Easy Ensemble for Software FaultPrediction | 第38页 |
1.7.5. Organization | 第38-40页 |
Chapter 2 Fuzzy Rough C-Mean Based Unsupervised CNN Clustering for Large-ScaleImage Data | 第40-62页 |
2.1. Introduction | 第40页 |
2.2. Fuzzy Rough C-Mean Based Unsupervised CNN Clustering | 第40-50页 |
2.2.1. The Problem of Deep-Learning-Based Clustering | 第40-42页 |
2.2.2. Background of Fuzzy Rough C-Mean (FRCM) | 第42-43页 |
2.2.3. Theoretical description of Proposed Approach | 第43-50页 |
2.2.3.1. FRUCNN Clustering Architecture | 第43-45页 |
2.2.3.2. Joint Clustering and Representation Learning | 第45-50页 |
2.2.3.2.1. Pre-Processing Data for UCNN | 第46页 |
2.2.3.2.2. Cluster Centroid Updating | 第46-47页 |
2.2.3.2.3. Representation Learning | 第47-50页 |
2.3. Experiments | 第50-59页 |
2.3.1. Data Preparation | 第50-51页 |
2.3.2. Performance Measure | 第51-52页 |
2.3.3. Comparison Schemes | 第52-53页 |
2.3.4. Implementation Details | 第53页 |
2.3.5. Experimental Design | 第53-59页 |
2.3.5.1. Computational Time Comparison | 第56-57页 |
2.3.5.2. Performance on Number of Cluster (k) | 第57-58页 |
2.3.5.3. Performance on Number of Epochs | 第58-59页 |
2.4. Threats to Validity | 第59-60页 |
2.5. Chapter Summary | 第60-62页 |
Chapter 3 A Semi-Supervised CNN with Fuzzy Rough C-Mean for Image Classification | 第62-84页 |
3.1. Introduction | 第62页 |
3.2. A Semi-Supervised Fuzzy Rough Convolutional Neural Network (SSFRCNN) | 第62-72页 |
3.2.1. Framework of Our Approach | 第62-63页 |
3.2.2. Theoretical description of Proposed Approach | 第63-67页 |
3.2.3. Semi-Supervised Fuzzy Rough Convolution Neural Network (FRCNN)Training | 第67-69页 |
3.2.4. Mathematical Description | 第69-72页 |
3.3. Experiments | 第72-82页 |
3.3.1. Data Preparation | 第72-73页 |
3.3.2. Experimental Setup | 第73页 |
3.3.3. Experiment Result and Analysis | 第73-79页 |
3.3.4. Time Complexity | 第79-80页 |
3.3.5. Convergence Analysis of Semi-Supervised Fuzzy Rough ConvolutionalNeural Network (SSFRCNN) | 第80-82页 |
3.4. Chapter Summary | 第82-84页 |
Chapter 4 Rough-KNN Noise-Filtered Convolutional Neural Network for ImageClassification | 第84-100页 |
4.1. Introduction | 第84页 |
4.2. Rough Set Theory Based 2d-Reduction Method | 第84-89页 |
4.2.1. Framework of Our Approach | 第84-85页 |
4.2.2. Theoretical description of Proposed Approach | 第85-89页 |
4.3. Experiments | 第89-99页 |
4.3.1. Data Preparation | 第89页 |
4.3.2. Implementation of Experiment | 第89-90页 |
4.3.3. Experiment Design&Analysis | 第90-99页 |
4.3.3.1. MNIST | 第90-94页 |
4.3.3.2. CIFAR-10 | 第94-96页 |
4.3.3.3. YTF (Youtube-Face) | 第96-99页 |
4.4. Chapter Summary | 第99-100页 |
Chapter 5 Rough Noise-Filtered Easy Ensemble for Software Fault Prediction | 第100-124页 |
5.1. Introduction | 第100-101页 |
5.2. Rough Noise-Filtered Easy Ensemble for Software Fault Prediction | 第101-107页 |
5.2.1. Framework of Our Approach | 第101-102页 |
5.2.2. Theoretical description of Proposed Approach | 第102-107页 |
5.2.2.1. Information Gain (IG) based Feature Selection | 第102-103页 |
5.2.2.1.1. Information Gain (IG) | 第102-103页 |
5.2.2.1.2. Symmetrical Uncertainty (SU) | 第103页 |
5.2.2.2. Rough- KNN Noise Filter (RK- Filter) | 第103-106页 |
5.2.2.3. Rough-KNN Noise Filtered Easy Ensemble (RKEE) | 第106-107页 |
5.3. Experiments | 第107-122页 |
5.3.1. Data Preparation | 第108-109页 |
5.3.2. Performance Measure | 第109-110页 |
5.3.3. Classification Models | 第110-111页 |
5.3.4. Experimental Design | 第111-113页 |
5.3.5. Result and Analysis | 第113-122页 |
5.3.5.1. Analysis of X-All verses X | 第116-117页 |
5.3.5.2. The effectiveness of Noise-Filter through KNN rule | 第117-118页 |
5.3.5.3. Impact of Rough set theory with Noise-Filter | 第118-119页 |
5.3.5.4. The impact of the combination of feature selection with Rough Noise-FilterEasy Ensemble | 第119-120页 |
5.3.5.5. Relationship between the performance and imbalanced ratio | 第120-121页 |
5.3.5.6. Comparison of different Schemes | 第121-122页 |
5.4. Chapter Summery | 第122-124页 |
Chapter 6 Concluding Remarks and Future Work | 第124-126页 |
6.1. Concluding Remarks | 第124-125页 |
6.2. Future work | 第125-126页 |
References | 第126-142页 |
Acknowledgements | 第142-144页 |
Bibliography | 第144-145页 |