基于角点密度检测和二次二值化的新闻视频字幕提取研究
| 摘要 | 第1-6页 |
| Abstract | 第6-10页 |
| 第一章 绪论 | 第10-16页 |
| ·研究背景和意义 | 第10-11页 |
| ·研究现状 | 第11-13页 |
| ·视频字幕提取难点与解决方法 | 第13-14页 |
| ·本文组织结构 | 第14-16页 |
| 第二章 综述 | 第16-20页 |
| ·新闻视频中字幕的分类 | 第16-18页 |
| ·字幕的时空特性 | 第18页 |
| ·本文视频字幕提取系统模块 | 第18-20页 |
| 第三章 基于角点密度检测的视频字幕区域检测方法 | 第20-33页 |
| ·现有的检测方法 | 第20-25页 |
| ·基于纹理的方法 | 第20-21页 |
| ·基于区域的方法 | 第21-22页 |
| ·基于边缘检测的方法 | 第22-23页 |
| ·基于机器学习的方法 | 第23-24页 |
| ·字幕区域检测的辅助方法 | 第24页 |
| ·字幕区域检测方法小结 | 第24-25页 |
| ·视频流预处理 | 第25-27页 |
| ·视频流的切割 | 第25页 |
| ·字幕事件检测 | 第25-26页 |
| ·图像灰度化 | 第26-27页 |
| ·基于角点密度检测的新闻视频字幕区域检测方法 | 第27-30页 |
| ·图像角点检测 | 第27-29页 |
| ·字幕区域检测 | 第29-30页 |
| ·实验结果及分析 | 第30-33页 |
| ·实验数据 | 第30页 |
| ·实验方法及结果 | 第30-33页 |
| 第四章 基于字幕本身特性的二次二值化方法 | 第33-47页 |
| ·现有的二值化方法 | 第33-36页 |
| ·OTSU二值化方法 | 第33-35页 |
| ·Niblack二值化方法 | 第35-36页 |
| ·图像二值化方法总结 | 第36页 |
| ·字幕图像二值化预处理 | 第36-38页 |
| ·图像增强 | 第36-38页 |
| ·图像多帧融合 | 第38页 |
| ·利用字幕本身特性的二次二值化方法 | 第38-42页 |
| ·利用字幕的笔画特征一次二值化 | 第39-40页 |
| ·利用字幕的颜色特征二次二值化 | 第40-41页 |
| ·基于连通域分析的背景像素过滤 | 第41-42页 |
| ·字幕识别 | 第42页 |
| ·实验结果及分析 | 第42-47页 |
| 第五章 总结与展望 | 第47-49页 |
| ·总结 | 第47-48页 |
| ·展望 | 第48-49页 |
| 参考文献 | 第49-52页 |
| 致谢 | 第52页 |