通用的软件可靠性云测试平台的研究与实现
摘要 | 第4-5页 |
ABSTRACT | 第5-6页 |
第一章 绪论 | 第10-16页 |
1.1 背景 | 第10-11页 |
1.2 测试软件运行在云上的价值 | 第11-12页 |
1.3 现有云测试平台的现状与挑战 | 第12-13页 |
1.4 本文研究内容和拟解决问题 | 第13-14页 |
1.5 论文结构 | 第14-16页 |
第二章 相关理论及关键技术 | 第16-34页 |
2.1 分布式计算及管理 | 第16-23页 |
2.1.1 计算资源管理框架 | 第16-21页 |
2.1.2 Storm | 第21-23页 |
2.1.3 Zookeeper | 第23页 |
2.2 消息通信 | 第23-25页 |
2.2.1 ActiveMQ | 第24页 |
2.2.2 Kafka | 第24-25页 |
2.3 分布式存储及数据库 | 第25-28页 |
2.3.1 HDFS | 第25-26页 |
2.3.2 HBase | 第26-27页 |
2.3.3 MySQL | 第27-28页 |
2.4 编程框架及其他技术 | 第28-30页 |
2.4.1 Spring | 第28页 |
2.4.2 Spring MVC | 第28页 |
2.4.3 Tomcat | 第28页 |
2.4.4 Meter | 第28-30页 |
2.5 软件可靠性理论 | 第30-31页 |
2.6 现有云测试平台的介绍与分析 | 第31-34页 |
第三章 系统需求分析 | 第34-40页 |
3.1 JMeter分布式部署局限性 | 第34-35页 |
3.2 系统伸缩性 | 第35-36页 |
3.2.1 单个测试软件的伸缩性 | 第35-36页 |
3.2.2 平台计算能力的伸缩性 | 第36页 |
3.2.3 其他伸缩性 | 第36页 |
3.3 系统容错/高可用性 | 第36-37页 |
3.3.1 平台的高可用性 | 第37页 |
3.3.2 测试任务失效监控和恢复 | 第37页 |
3.4 系统通用性 | 第37-38页 |
3.5 用户与平台的可视化交互 | 第38-40页 |
第四章 系统设计与实现 | 第40-66页 |
4.1 系统整体架构 | 第40-43页 |
4.1.1 系统主要模块 | 第40-41页 |
4.1.2 系统组件的层次结构 | 第41-42页 |
4.1.3 系统主要工作流程 | 第42-43页 |
4.2 Web模块设计 | 第43-49页 |
4.2.1 Web模块主要组成部分 | 第43-44页 |
4.2.2 Web模块数据库表结构 | 第44-45页 |
4.2.3 Web模块的类结构设计 | 第45-48页 |
4.2.4 Web模块工作过程与主要界面 | 第48-49页 |
4.3 测试软件接入模块设计 | 第49-55页 |
4.3.1 详细功能划分与工作流程 | 第50-51页 |
4.3.2 测试计划解析 | 第51-52页 |
4.3.3 测试任务提交 | 第52-53页 |
4.3.4 测试软件Runner设计 | 第53-54页 |
4.3.5 测试任务状态监控 | 第54-55页 |
4.4 测试数据处理模块设计 | 第55-59页 |
4.4.1 Storm拓扑设计 | 第55-57页 |
4.4.2 测试数据的处理逻辑 | 第57-58页 |
4.4.3 测试数据的存储 | 第58-59页 |
4.5 测试报表与可靠性测量 | 第59-62页 |
4.6 平台详细工作流程总结 | 第62-66页 |
第五章 功能评估与性能分析 | 第66-78页 |
5.1 功能评估 | 第66-69页 |
5.1 1 系统伸缩性分析 | 第66-67页 |
5.1.2 系统容错/高可用性分析 | 第67-68页 |
5.1.3 系统通用性分析 | 第68-69页 |
5.2 性能对比分析 | 第69-76页 |
5.2.1 性能测试方案设计 | 第69-73页 |
5.2.2 JMeter不同运行方式的性能对比 | 第73-76页 |
5.3 小结 | 第76-78页 |
第六章 总结与展望 | 第78-80页 |
6.1 总结 | 第78页 |
6.2 下一步工作 | 第78-80页 |
参考文献 | 第80-84页 |
致谢 | 第84-86页 |
作者攻读学位期间发表的学术论文目录 | 第86页 |