| 第1章 绪论 | 第1-15页 |
| ·中文分词产生的必然性 | 第7-10页 |
| ·中文分词的发展现状 | 第10-15页 |
| ·计算机自动分词解决中文文本分词问题 | 第10页 |
| ·计算机自动分词不能彻底解决歧义字段切分 | 第10-11页 |
| ·中文分词的特点 | 第11-12页 |
| ·一般分词方法 | 第12-15页 |
| 第2章 基础理论 | 第15-35页 |
| ·本文要解决的问题 | 第15-17页 |
| ·中文分词要解决的问题 | 第15-16页 |
| ·本文要解决的问题及要采用的方法 | 第16-17页 |
| ·基于字典的分词方法 | 第17-22页 |
| ·基于字典的分词方法的说明 | 第17-18页 |
| ·基于字典的分词方法的改进 | 第18-21页 |
| ·基于字典的分词方法与基于统计的分词方法的比较 | 第21-22页 |
| ·歧义的解决 | 第22-32页 |
| ·歧义的采集 | 第22-23页 |
| ·基于统计的歧义的解决方法 | 第23-31页 |
| ·基于规则的歧义解决方法 | 第31-32页 |
| ·单字词处理中的可变窗口算法 | 第32-35页 |
| 第3章 统计与字典相结合的分词方法 | 第35-44页 |
| ·算法的基本过程 | 第35页 |
| ·本文中文分词的算法的实现 | 第35-44页 |
| ·算法的主体部分流程图 | 第35-37页 |
| ·重组字典结构 | 第37-38页 |
| ·根据标点符号以及特殊的汉字断句 | 第38页 |
| ·最大正向匹配算法rmatch(sen)流程图 | 第38-39页 |
| ·反向最大匹配算法vmatch(sen)流程图 | 第39-40页 |
| ·单字词处理single(sen,text)流程图 | 第40-42页 |
| ·歧义处理multimean(rr,vv,text)的流程图 | 第42-44页 |
| 第4章 实验结果的评价 | 第44-51页 |
| ·实验结果的评价参数 | 第44-45页 |
| ·算法的比较一 | 第45-47页 |
| ·算法的比较二 | 第47-49页 |
| ·算法可以进行的补充 | 第49-51页 |
| 结论 | 第51-52页 |
| 参考文献 | 第52-54页 |
| 中文摘要 | 第54-56页 |
| Abstract | 第56-59页 |
| 致谢 | 第59-60页 |
| 导师及作者简介 | 第60页 |