基于检测与跟踪互反馈的多目标跟踪技术及应用研究
致谢 | 第4-5页 |
摘要 | 第5-7页 |
Abstract | 第7-9页 |
1 引言 | 第15-23页 |
1.1 研究背景和意义 | 第15-18页 |
1.2 研究内容 | 第18-20页 |
1.3 论文主要贡献 | 第20-21页 |
1.4 论文组织结构 | 第21-23页 |
2 研究综述 | 第23-39页 |
2.1 背景建模 | 第23-24页 |
2.2 目标检测 | 第24-25页 |
2.3 多目标跟踪 | 第25-28页 |
2.4 视频文本检测、跟踪与识别 | 第28-39页 |
2.4.1 单帧图像文本检测 | 第28-29页 |
2.4.2 视频文本跟踪 | 第29-33页 |
2.4.3 基于跟踪的文本检测 | 第33-35页 |
2.4.4 基于跟踪的识别方法 | 第35-37页 |
2.4.5 小结 | 第37-39页 |
3 基于检测与跟踪互反馈的多目标跟踪算法 | 第39-60页 |
3.1 引言 | 第39页 |
3.2 算法概述 | 第39-42页 |
3.3 基于跟踪反馈的检测算法 | 第42-44页 |
3.3.1 图像预处理 | 第42-44页 |
3.3.2 基于跟踪反馈信息的检测 | 第44页 |
3.4 基于检测的跟踪算法 | 第44-49页 |
3.4.1 分组算法 | 第45-46页 |
3.4.2 相似度计算 | 第46-49页 |
3.4.3 多目标情况的处理 | 第49页 |
3.4.4 轨迹的初始化 | 第49页 |
3.4.5 轨迹的消失和再匹配 | 第49页 |
3.5 实验验证 | 第49-59页 |
3.5.1 数据集和评价标准 | 第49-51页 |
3.5.2 算法实现 | 第51-52页 |
3.5.3 真实监控视频上的实验结果 | 第52-54页 |
3.5.4 公共视频库实验结果 | 第54-56页 |
3.5.5 算法效率评价 | 第56-59页 |
3.6 小结 | 第59-60页 |
4 基于MTDT算法的视频层叠字幕文本检测跟踪 | 第60-73页 |
4.1 引言 | 第60-61页 |
4.2 文本跟踪 | 第61-63页 |
4.2.1 轮廓特征表示 | 第62-63页 |
4.2.2 轮廓特征相似度 | 第63页 |
4.3 基于跟踪的文本检测算法 | 第63-65页 |
4.3.1 误检的验证 | 第63-64页 |
4.3.2 基于预测位置的文本检测 | 第64页 |
4.3.3 文本框大小的修正 | 第64-65页 |
4.4 实验验证 | 第65-72页 |
4.4.1 数据集 | 第65页 |
4.4.2 实验设置与对比方法 | 第65-66页 |
4.4.3 实验结果 | 第66-72页 |
4.5 小结 | 第72-73页 |
5 基于MTDT算法的自然场景文本检测跟踪方法 | 第73-93页 |
5.1 引言 | 第73页 |
5.2 检测和轨迹的相似度计算 | 第73-79页 |
5.2.1 加速鲁棒特征 | 第74-75页 |
5.2.2 基于时空上下文学习的快速跟踪算法 | 第75-78页 |
5.2.3 基于规则的多策略融合预测方法 | 第78-79页 |
5.3 实验验证 | 第79-92页 |
5.3.1 数据集 | 第79-81页 |
5.3.2 实验设置与对比方法 | 第81-82页 |
5.3.3 实验结果 | 第82-92页 |
5.4 小结 | 第92-93页 |
6 视频文本检测识别系统 | 第93-102页 |
6.1 引言 | 第93-94页 |
6.2 基于跟踪的文本识别算法 | 第94-97页 |
6.2.1 基于跟踪的文本识别算法的形式化表示 | 第95-96页 |
6.2.2 轨迹的时域过分割 | 第96页 |
6.2.3 子轨迹的融合 | 第96-97页 |
6.2.4 多帧识别结果融合 | 第97页 |
6.3 实验验证 | 第97-101页 |
6.3.1 数据集 | 第97页 |
6.3.2 实验设置与对比方法 | 第97-98页 |
6.3.3 实验结果 | 第98-101页 |
6.4 小结 | 第101-102页 |
7 总结与展望 | 第102-105页 |
参考文献 | 第105-116页 |
作者简历及在学研究成果 | 第116-120页 |
学位论文数据集 | 第120页 |