摘要 | 第4-6页 |
ABSTRACT | 第6-7页 |
第一章 绪论 | 第12-19页 |
1.1 研究背景 | 第12-13页 |
1.2 研究目的和意义 | 第13-14页 |
1.3 国内外研究现状 | 第14-17页 |
1.4 研究内容 | 第17-18页 |
1.5 本文的结构框架 | 第18-19页 |
第二章 相关概念和方法 | 第19-41页 |
2.1 缺陷报告及生命周期 | 第19-22页 |
2.1.1 缺陷报告 | 第19-21页 |
2.1.2 缺陷生命周期 | 第21-22页 |
2.2 词向量化和快速文本分类 | 第22-29页 |
2.2.1 词向量化 | 第22-25页 |
2.2.1.1 TF-IDF | 第22-23页 |
2.2.1.2 Wrd2vec | 第23-25页 |
2.2.2 快速文本分类 | 第25-29页 |
2.2.2.1 模型架构 | 第25-26页 |
2.2.2.2 模型训练 | 第26-27页 |
2.2.2.3 FastText的词向量表征 | 第27-29页 |
2.2.2.3.1 FastText的N-gram特征 | 第27-28页 |
2.2.2.3.2 FastText词向量优势 | 第28页 |
2.2.2.3.3 FastText词向量与Word2vec对比 | 第28-29页 |
2.3 用于缺陷分类的机器学习方法 | 第29-39页 |
2.3.1 涉及的机器学习算法 | 第29-39页 |
2.3.2 评价标准 | 第39页 |
2.4 小结 | 第39-41页 |
第三章 单一修复者推荐方法 | 第41-52页 |
3.1 方法框架 | 第41-43页 |
3.1.1 整体流程 | 第41-42页 |
3.1.2 词向量化 | 第42页 |
3.1.3 评分机制 | 第42-43页 |
3.1.4 候选人排序 | 第43页 |
3.2 “十折交叉”增量学习模式 | 第43-44页 |
3.3 实验及结果分析 | 第44-50页 |
3.3.1 数据收集和与处理 | 第44-46页 |
3.3.2 实验设计 | 第46-47页 |
3.3.2.1 验证模式 | 第46页 |
3.3.2.2 分类算法 | 第46-47页 |
3.3.3 实验结果 | 第47-49页 |
3.3.4 对比分析 | 第49-50页 |
3.3.4.1 与ML+TG方法的对比分析 | 第49-50页 |
3.3.4.2 与FastText+S方法的对比分析 | 第50页 |
3.4 小结 | 第50-52页 |
第四章 多个可能开发者推荐方法 | 第52-67页 |
4.1 缺陷修复的多标签分类问题 | 第52-55页 |
4.2 方法框架 | 第55-58页 |
4.2.1 整体流程 | 第55-56页 |
4.2.2 缺陷分配图 | 第56-58页 |
4.3 实验设计 | 第58-59页 |
4.3.1 验证模式 | 第58页 |
4.3.2 分类算法 | 第58-59页 |
4.3.3 评价标准 | 第59页 |
4.4 实验结果 | 第59-63页 |
4.5 对比分析 | 第63-66页 |
4.5.1 与FastText+S+TG方法的对比分析 | 第63-64页 |
4.5.2 与ML-KNN+开发者相似度方法的对比分析 | 第64-66页 |
4.5.2.1 ML-KNN+开发者相似度方法的整体流程 | 第64页 |
4.5.2.2 开发者相似度计算 | 第64-65页 |
4.5.2.3 结果对比 | 第65-66页 |
4.6 小结 | 第66-67页 |
第五章 总结与展望 | 第67-69页 |
5.1 本文的主要贡献 | 第67页 |
5.2 下一步工作展望 | 第67-69页 |
参考文献 | 第69-74页 |
硕士期间研究成果 | 第74-75页 |
致谢 | 第75-76页 |