| 摘要 | 第1-7页 |
| ABSTRACT | 第7-12页 |
| 第一章 绪论 | 第12-26页 |
| ·研究背景 | 第12-13页 |
| ·文本分类研究现状 | 第13-14页 |
| ·常用文本分类算法 | 第14-20页 |
| ·分类性能的评估 | 第20-22页 |
| ·基准测试数据集 | 第22-23页 |
| ·本文主要研究内容 | 第23-24页 |
| ·本文的组织 | 第24-26页 |
| 第二章 文本预处理 | 第26-50页 |
| ·引言 | 第26-27页 |
| ·分词 | 第27页 |
| ·词干抽取 | 第27页 |
| ·去停用词 | 第27-28页 |
| ·特征选择 | 第28-34页 |
| ·信息增益(Information Gain) | 第29-30页 |
| ·期望交叉熵(Expected Cross Entropy) | 第30页 |
| ·互信息(Mutual Information) | 第30-31页 |
| ·文本证据权(the Weight of Evidence of Text) | 第31页 |
| ·几率比(Odds Ratio) | 第31页 |
| ·x~2统计(CHI) | 第31-32页 |
| ·文档频率(Document Frequency) | 第32页 |
| ·单词权(Term Strength) | 第32-33页 |
| ·其它算法 | 第33-34页 |
| ·一种新的特征选择算法 | 第34-40页 |
| ·传统的基尼指数(Gini Index)算法 | 第34-35页 |
| ·改进的基尼指数算法 | 第35页 |
| ·实验结果 | 第35-40页 |
| ·结论 | 第40页 |
| ·特征加权 | 第40-46页 |
| ·TF-IDF算法 | 第41-42页 |
| ·一种改进的TF-IDF算法——TF-Gini算法 | 第42-46页 |
| ·向量空间模型 | 第46-48页 |
| ·本章小结 | 第48-50页 |
| 第三章 基于基尼加权的朴素贝叶斯文本分类器 | 第50-61页 |
| ·引言 | 第50-51页 |
| ·贝叶斯概率基础 | 第51-53页 |
| ·概率论基础 | 第51-52页 |
| ·贝叶斯概率基础 | 第52-53页 |
| ·朴素贝叶斯分类器 | 第53-56页 |
| ·贝叶斯定理 | 第53-54页 |
| ·朴素贝叶斯分类过程 | 第54-56页 |
| ·基于特征加权的朴素贝叶斯分类器 | 第56-60页 |
| ·特征加权技术的基本思想 | 第56-57页 |
| ·基于基尼特征加权的朴素贝叶斯分类器 | 第57-60页 |
| ·本章小结 | 第60-61页 |
| 第四章 基于基尼加权的模糊kNN文本分类器 | 第61-71页 |
| ·引言 | 第61-62页 |
| ·kNN决策规则的改进 | 第62-67页 |
| ·传统的kNN决策规则 | 第62-63页 |
| ·改进的kNN决策规则 | 第63-65页 |
| ·实验结果与分析 | 第65-67页 |
| ·基于基尼加权的模糊kNN分类器 | 第67-70页 |
| ·本章小结 | 第70-71页 |
| 第五章 一种新的文本分类模型——基于基尼指数的文本分类器(IGIC) | 第71-91页 |
| ·引言 | 第71-72页 |
| ·决策树中的基尼指数算法 | 第72-73页 |
| ·改进的基尼指数分类算法 | 第73-74页 |
| ·基尼指数文本分类可行性理论基础 | 第74-86页 |
| ·熵的定义 | 第74-75页 |
| ·最大熵原理 | 第75-76页 |
| ·最大熵模型求解 | 第76-77页 |
| ·参数求解算法 | 第77-79页 |
| ·使用最大熵模型进行文本分类 | 第79-80页 |
| ·由熵推出基尼指数的证明 | 第80-86页 |
| ·基尼分类器实验结果及分析 | 第86-90页 |
| ·本章小结 | 第90-91页 |
| 第六章 结束语 | 第91-94页 |
| ·本文主要工作总结 | 第91-92页 |
| ·进一步研究和展望 | 第92-94页 |
| 参考文献 | 第94-102页 |
| 致谢 | 第102-103页 |
| 攻读博士期间发表和已录用的学术论文 | 第103页 |