摘要 | 第4-5页 |
Abstract | 第5页 |
1 绪论 | 第8-14页 |
1.1 研究背景和意义 | 第8-9页 |
1.2 研究的内容 | 第9-11页 |
1.3 研究的创新点 | 第11-12页 |
1.4 论文的结构安排 | 第12-14页 |
2 国内外研究现状 | 第14-19页 |
2.1 传统的场景文字检测 | 第14页 |
2.2 基于深度学习的场景文字检测 | 第14-18页 |
2.2.1 自上而下的场景文字检测 | 第14-16页 |
2.2.2 自下而上的场景文字检测 | 第16-18页 |
2.3 本文提出的方法和其他方法的对比 | 第18-19页 |
3 文字检测框架 | 第19-32页 |
3.1 方法概览 | 第19-22页 |
3.2 文字区域实例敏感的单元组合的文字检测框架 | 第22-23页 |
3.2.1 基于单元之间吸引排斥关系的单元组合 | 第22-23页 |
3.2.2 基于文字区域实例敏感的损失函数的网络训练 | 第23页 |
3.3 深度神经网络框架 | 第23-25页 |
3.3.1 文字单元的提取 | 第24-25页 |
3.3.2 单元之间吸引关系和排斥关系的估计 | 第25页 |
3.4 深度神经网络训练标签的生成 | 第25-27页 |
3.5 深度神经网络优化 | 第27-28页 |
3.5.1 损失函数 | 第27-28页 |
3.5.2 在线困难负样本挖掘 | 第28页 |
3.6 深度神经网络推理与后处理 | 第28-32页 |
3.6.1 基于改动版最小生成树算法的文字单元组合 | 第29-30页 |
3.6.2 文字区域外接检测框提取 | 第30页 |
3.6.3 文字区域检测框的非极大值抑制(polygon NMS) | 第30-32页 |
4 实验验证 | 第32-51页 |
4.1 数据集和评测方法介绍 | 第32-35页 |
4.1.1 DAST1500数据集 | 第32-33页 |
4.1.2 MTWI网络图片数据集 | 第33页 |
4.1.3 SynthText合成数据集 | 第33-34页 |
4.1.4 ICDAR15数据集 | 第34页 |
4.1.5 SCUT-CTW1500数据集 | 第34页 |
4.1.6 TotalText数据集 | 第34-35页 |
4.1.7 评测方法 | 第35页 |
4.2 实验细节 | 第35-36页 |
4.3 DAST1500上的实验 | 第36-41页 |
4.3.1 对比实验 | 第36-38页 |
4.3.2 和其他方法的对比 | 第38-41页 |
4.4 MTWI上的实验 | 第41-44页 |
4.5 其他数据集上实验 | 第44-49页 |
4.5.1 多方向文字检测数据集ICDAR15 | 第44-46页 |
4.5.2 曲形文字检测数据集SCUT-CTW | 第46-48页 |
4.5.3 曲形文字检测数据集TotalText | 第48-49页 |
4.6 效率分析 | 第49-50页 |
4.7 方法的局限性 | 第50-51页 |
5 结论与展望 | 第51-52页 |
致谢 | 第52-53页 |
参考文献 | 第53-58页 |
攻读硕士学位论文期间发表的论文 | 第58页 |