基于特征融合的视频文本获取研究
| 摘要 | 第1-6页 |
| ABSTRACT | 第6-14页 |
| 第1章 绪论 | 第14-18页 |
| ·研究背景与意义 | 第14-15页 |
| ·本文主要研究内容 | 第15-16页 |
| ·本文篇章结构 | 第16-18页 |
| 第2章 视频文本获取算法综述 | 第18-36页 |
| ·视频文本特点 | 第19-21页 |
| ·视频文本检测算法 | 第21-22页 |
| ·视频叠加文本检测 | 第22-25页 |
| ·基于区域文本检测算法 | 第22-24页 |
| ·基于纹理文本检测算法 | 第24页 |
| ·基于笔划文本检测算法 | 第24-25页 |
| ·基于压缩域文本检测算法 | 第25页 |
| ·视频场景文本检测 | 第25-27页 |
| ·基于视频帧频域特征的文本检测算法 | 第26页 |
| ·基于视频帧空域特征的文本检测算法 | 第26-27页 |
| ·视频文本定位 | 第27页 |
| ·视频文本提取 | 第27-29页 |
| ·基于字符笔划的文本提取算法 | 第27-28页 |
| ·基于颜色的文本提取算法 | 第28-29页 |
| ·本章小结 | 第29页 |
| ·本章参考文献 | 第29-36页 |
| 第3章 基于运动感知场的视频叠加文本检测和定位 | 第36-54页 |
| ·问题背景 | 第36页 |
| ·视频叠加文本检测算法概述 | 第36-37页 |
| ·运动感知场 | 第37-42页 |
| ·视频文本特征分析 | 第37-38页 |
| ·运动感知场的定义 | 第38-41页 |
| ·运动感知场的构造 | 第41-42页 |
| ·基于运动感知场的叠加文本检测 | 第42-46页 |
| ·多帧融合 | 第43-44页 |
| ·基于运动感知场的角点过滤 | 第44-45页 |
| ·文本区域确定 | 第45-46页 |
| ·叠加文本定位 | 第46页 |
| ·基于运动感知场的多帧验证 | 第46-48页 |
| ·实验结果与分析 | 第48-51页 |
| ·本章小结 | 第51页 |
| ·本章参考文献 | 第51-54页 |
| 第4章 基于笔划图的视频场景文本检测和定位 | 第54-74页 |
| ·问题背景 | 第54-55页 |
| ·笔划图 | 第55-59页 |
| ·笔划图定义 | 第55-58页 |
| ·笔划图特征 | 第58-59页 |
| ·基于笔划图的场景文本检测 | 第59-61页 |
| ·场景文本定位 | 第61-65页 |
| ·基于笔划图的角点检测 | 第62-63页 |
| ·角点区域形态学操作 | 第63页 |
| ·连通成分分析 | 第63页 |
| ·文本连通域邻接矩形 | 第63-65页 |
| ·基于SVM的候选文本区域验证 | 第65-68页 |
| ·SVM分类器训练 | 第65-67页 |
| ·SVM分类器验证文本区域 | 第67-68页 |
| ·实验结果与分析 | 第68-71页 |
| ·本章小结 | 第71页 |
| ·本章参考文献 | 第71-74页 |
| 第5章 视频文本提取 | 第74-94页 |
| ·问题背景 | 第74页 |
| ·视频叠加文本提取 | 第74-84页 |
| ·叠加文本行边缘图 | 第75-77页 |
| ·文本行字符分割 | 第77-79页 |
| ·单字符文本提取 | 第79-82页 |
| ·实验结果与分析 | 第82-84页 |
| ·视频场景文本提取 | 第84-92页 |
| ·基于改进Niblack算法的场景文本二值化 | 第84-86页 |
| ·场景文本极性判断 | 第86-88页 |
| ·场景文本边缘填充 | 第88页 |
| ·视频场景文本倾斜纠正 | 第88-89页 |
| ·实验结果与分析 | 第89-92页 |
| ·本章小结 | 第92页 |
| ·本章参考文献 | 第92-94页 |
| 第6章 视频文本获取系统设计与实现 | 第94-102页 |
| ·视频文本获取系统 | 第94-96页 |
| ·系统主要功能 | 第94-95页 |
| ·系统设计与实现 | 第95-96页 |
| ·实验结果与分析 | 第96-100页 |
| ·系统运行结果 | 第97-98页 |
| ·系统结果分析 | 第98-100页 |
| ·本章小结 | 第100-102页 |
| 第7章 总结及展望 | 第102-104页 |
| ·论文工作总结 | 第102-103页 |
| ·进一步工作 | 第103-104页 |
| 攻读博士学位期间研究成果 | 第104-106页 |
| 参加的科研项目 | 第106-107页 |
| 致谢 | 第107页 |