| 中文摘要 | 第3-4页 |
| Abstract | 第4页 |
| 第一章 绪论 | 第9-13页 |
| 1.1 研究背景及意义 | 第9-11页 |
| 1.2 本文研究的内容 | 第11-12页 |
| 1.3 本文结构安排 | 第12-13页 |
| 第二章 特征选择算法和信息论基础 | 第13-30页 |
| 2.1 特征选择算法概述 | 第13-20页 |
| 2.1.1 特征子集搜索算法 | 第14-17页 |
| 2.1.2 特征子集评估算法 | 第17-19页 |
| 2.1.3 特征选择算法的停止准则 | 第19页 |
| 2.1.4 特征选择算法分类 | 第19-20页 |
| 2.2 信息论的基本概念 | 第20-23页 |
| 2.2.1 信息熵 | 第20-21页 |
| 2.2.2 条件熵 | 第21页 |
| 2.2.3 联合熵 | 第21-22页 |
| 2.2.4 互信息 | 第22-23页 |
| 2.3 互信息的估算方法 | 第23-26页 |
| 2.3.1 直方图法 | 第23-24页 |
| 2.3.2 Parzen窗口法 | 第24-26页 |
| 2.4 基于互信息的特征选择算法 | 第26-29页 |
| 2.4.1 MIFS算法 | 第26-28页 |
| 2.4.2 MIFS-U算法 | 第28页 |
| 2.4.3 PWFS算法 | 第28-29页 |
| 2.4.4 mRMR算法 | 第29页 |
| 2.5 本章小结 | 第29-30页 |
| 第三章 基于Grassberger熵的NMIFS算法 | 第30-36页 |
| 3.1 信息熵估算的偏差分析 | 第30-32页 |
| 3.1.1 信息熵偏差分析 | 第30-31页 |
| 3.1.2 Miller偏差 | 第31-32页 |
| 3.2 NMIFS算法 | 第32-34页 |
| 3.3 改进的基于Grassberger熵的NMIFS算法 | 第34-35页 |
| 3.3.1 基于Grassberger熵的互信息估算方法 | 第34页 |
| 3.3.2 G-NMIFS算法 | 第34-35页 |
| 3.4 本章小节 | 第35-36页 |
| 第四章 实验结果与分析 | 第36-44页 |
| 4.1 实验方法 | 第36-37页 |
| 4.2 实验数据集及预处理 | 第37-38页 |
| 4.3 实验环境 | 第38页 |
| 4.4 实验结果与分析 | 第38-43页 |
| 4.5 本章小结 | 第43-44页 |
| 第五章 抑郁风险预测系统 | 第44-48页 |
| 5.1 抑郁风险预测系统项目背景 | 第44页 |
| 5.2 抑郁风险预测系统与MI-FS算法 | 第44-47页 |
| 5.3 本章小结 | 第47-48页 |
| 第六章 总结和展望 | 第48-49页 |
| 6.1 工作内容总结 | 第48页 |
| 6.2 研究展望 | 第48-49页 |
| 参考文献 | 第49-53页 |
| 在学期间的研究成果 | 第53-54页 |
| 致谢 | 第54页 |