基于实例分割的场景图像文字检测
摘要 | 第4-5页 |
Abstract | 第5页 |
第1章 绪论 | 第12-23页 |
1.1 研究背景 | 第12-14页 |
1.2 研究现状 | 第14-18页 |
1.2.1 简单场景下的文字检测 | 第14-15页 |
1.2.2 复杂场景下的文字检测 | 第15-18页 |
1.3 研究内容 | 第18-21页 |
1.3.1 任务说明 | 第19-20页 |
1.3.2 任务实现 | 第20-21页 |
1.4 本文创新点 | 第21页 |
1.5 文章组织结构 | 第21-23页 |
第2章 相关工作 | 第23-34页 |
2.1 概述 | 第23页 |
2.2 深度学习相关工作 | 第23-29页 |
2.2.1 卷积神经网络(CNN) | 第23-26页 |
2.2.2 深度学习做物体检测 | 第26-28页 |
2.2.3 深度学习做物体分割 | 第28-29页 |
2.3 文字检测相关工作 | 第29-33页 |
2.3.1 基于回归的检测算法 | 第29-31页 |
2.3.2 基于分割的检测算法 | 第31-33页 |
2.4 本章小结 | 第33-34页 |
第3章 基于实例分割的文字检测算法 | 第34-51页 |
3.1 概述 | 第34-35页 |
3.2 算法流程 | 第35页 |
3.3 特征图预测 | 第35-45页 |
3.3.1 文字显著性预测 | 第36-37页 |
3.3.2 文字实例风车图预测 | 第37-39页 |
3.3.3 多任务神经网络模型 | 第39-43页 |
3.3.4 模型训练与预测 | 第43-45页 |
3.4 文字实例分割 | 第45-48页 |
3.4.1 实例分割算法 | 第45-46页 |
3.4.2 图剪枝算法细节 | 第46-48页 |
3.5 文字包围框计算 | 第48-50页 |
3.5.1 最小包围盒算法 | 第49页 |
3.5.2 EasyNMS | 第49-50页 |
3.6 本章小节 | 第50-51页 |
第4章 实验与分析 | 第51-61页 |
4.1 概述 | 第51页 |
4.2 数据集 | 第51-52页 |
4.3 评价标准 | 第52-53页 |
4.3.1 IoU | 第52页 |
4.3.2 召回率、精确率与调和平均数 | 第52-53页 |
4.3.3 可忽略的标注样例 | 第53页 |
4.4 实验环境 | 第53-54页 |
4.5 文字检测结果 | 第54-60页 |
4.5.1 文字检测样例展示 | 第54-55页 |
4.5.2 文字检测算法比较 | 第55-56页 |
4.5.3 基础网络结构比较 | 第56页 |
4.5.4 特征融合层结构比较 | 第56-57页 |
4.5.5 不平衡样本学习算法分析 | 第57-58页 |
4.5.6 文字实例分割和包围框算法分析 | 第58-60页 |
4.6 本章小结 | 第60-61页 |
第5章 总结与展望 | 第61-67页 |
5.1 总结 | 第61-62页 |
5.2 展望 | 第62-67页 |
5.2.1 样本类型 | 第62-63页 |
5.2.2 文字实例特征图设计 | 第63-64页 |
5.2.3 端到端的文字检测和识别 | 第64-67页 |
参考文献 | 第67-71页 |
攻读硕士学位期间的主要研究成果 | 第71-72页 |
致谢 | 第72页 |