| 摘要 | 第1-5页 |
| ABSTRACT | 第5-6页 |
| 第一章 绪论 | 第6-12页 |
| ·人工评价方法的需求分析 | 第7-9页 |
| ·用户相关度 | 第7-8页 |
| ·日志分析方法的数据来源 | 第8页 |
| ·人工评价和日志分析两种方法的比较 | 第8-9页 |
| ·论文的研究重点、工作思路与主要成果 | 第9-10页 |
| ·总结 | 第10-12页 |
| 第二章 人工评价系统的设计 | 第12-29页 |
| ·在线商店检索系统的特征 | 第12-16页 |
| ·系统的评估模块的功能 | 第12-13页 |
| ·在线商店检索结果质量的评价标准 | 第13-14页 |
| ·在线商店用户的检索习惯 | 第14-16页 |
| ·系统用户经历设计 | 第16-18页 |
| ·明确实验评估标准 | 第18-20页 |
| ·如何定义系统的评估标准 | 第18-19页 |
| ·测试工人对评估标准的理解 | 第19-20页 |
| ·使用Golden Set | 第20-23页 |
| ·分配Golden Set数据的比例 | 第21页 |
| ·Golden Set数据的分布 | 第21-23页 |
| ·商品其他属性对评估结果的影响 | 第23-25页 |
| ·如何选取有效属性 | 第24-25页 |
| ·使用关键字的属性还是结果商品的属性 | 第25页 |
| ·成本控制 | 第25-27页 |
| ·确定合理的人工评价深度 | 第26页 |
| ·重用人工评价结果 | 第26-27页 |
| ·总结 | 第27-29页 |
| 第三章 人工评价结果的统计分析 | 第29-45页 |
| ·查全率和查准率 | 第29-31页 |
| ·关注查询结果顶端的商品 | 第31-36页 |
| ·日志分析方法数据采集的缺点 | 第32-35页 |
| ·人工评价方法的数据设置 | 第35-36页 |
| ·人工评价结果的DCG分析 | 第36-39页 |
| ·人工评价结果的nDCG分析 | 第39-41页 |
| ·人工评价结果的MRR分析 | 第41-42页 |
| ·人工评价结果的T检验 | 第42-44页 |
| ·总结 | 第44-45页 |
| 第四章 过滤人工评价结果中噪音数据 | 第45-55页 |
| ·本章使用的符号和其他的说明 | 第45页 |
| ·常用的一致性水平检测指标 | 第45-49页 |
| ·Fleiss' multi-rater kappa | 第45-46页 |
| ·Kendall W | 第46-47页 |
| ·Krippendorff's Alpha | 第47页 |
| ·三种常用统计相关量的劣势 | 第47-49页 |
| ·适合人工评价结果的一致性水平检测指标 | 第49-53页 |
| ·百分比一致性方法(Agreement Percentage) | 第49-50页 |
| ·多数票一致性方法(Agreement With Majority Vote) | 第50-51页 |
| ·AC1 | 第51-52页 |
| ·过滤后的DCG比较 | 第52-53页 |
| ·结论 | 第53-55页 |
| 第五章 结论和未来的工作展望 | 第55-57页 |
| ·论文总结 | 第55页 |
| ·未来工作展望 | 第55-57页 |
| 参考文献 | 第57-60页 |
| 致谢 | 第60-61页 |