摘要 | 第5-6页 |
Abstract | 第6-7页 |
第1章 绪论 | 第11-19页 |
1.1 课题研究的背景与意义 | 第11-12页 |
1.1.1 课题背景 | 第11-12页 |
1.1.2 课题研究目的及意义 | 第12页 |
1.2 国内外研究现状 | 第12-16页 |
1.2.1 智能视频监控的研究现状 | 第12-14页 |
1.2.2 基于立体视觉的行人检测关键技术研究现状 | 第14-16页 |
1.3 主要内容及章节安排 | 第16-19页 |
第2章 立体匹配原理及算法 | 第19-33页 |
2.1 双目立体视觉系统 | 第19-23页 |
2.1.1 双目立体成像结构 | 第19-21页 |
2.1.2 双目立体视觉系统标定及校正 | 第21-23页 |
2.2 立体匹配算法 | 第23-26页 |
2.2.1 立体匹配的基本原理 | 第23-24页 |
2.2.2 局部立体匹配 | 第24-25页 |
2.2.3 全局立体匹配 | 第25-26页 |
2.3 视频监控中的立体匹配 | 第26-31页 |
2.3.1 基于区域灰度的立体匹配算法及改进 | 第26-29页 |
2.3.2 基于动态规划的立体匹配算法 | 第29-31页 |
2.4 本章小结 | 第31-33页 |
第3章 局部立体匹配算法的改进 | 第33-55页 |
3.1 局部立体匹配的实时性改进 | 第33-40页 |
3.1.1 串行计算中的加速技术 | 第33-35页 |
3.1.2 CUDA体系架构 | 第35-38页 |
3.1.3 基于SIMT的局部立体匹配加速 | 第38-40页 |
3.2 局部立体匹配的精度提高 | 第40-44页 |
3.2.1 基于自适应窗口的代价聚合算法 | 第40-41页 |
3.2.2 基于自适应权重的代价聚合算法 | 第41-43页 |
3.2.3 自适应权重算法的参数设置与实验结果 | 第43-44页 |
3.3 自适应权重算法的改进 | 第44-50页 |
3.3.1 改进自适应权重算法框架 | 第44-45页 |
3.3.2 下采样操作 | 第45-46页 |
3.3.3 上采样操作 | 第46-49页 |
3.3.4 参数选择与实验结果 | 第49-50页 |
3.4 立体匹配后处理 | 第50-53页 |
3.4.1 左右一致性检验与视差填充 | 第50-51页 |
3.4.2 实验结果对比 | 第51-53页 |
3.5 本章小结 | 第53-55页 |
第4章 目标特征提取与跟踪 | 第55-69页 |
4.1 场景原图像的特征提取 | 第55-60页 |
4.1.1 运动特征 | 第56-58页 |
4.1.2 形状特征 | 第58-60页 |
4.2 场景视差图像的特征提取 | 第60-63页 |
4.2.1 运动特征提取 | 第60-61页 |
4.2.2 深度特征 | 第61-63页 |
4.3 基于多特征的目标判定 | 第63-65页 |
4.4 基于目标跟踪的轨迹获取 | 第65-67页 |
4.5 本章小结 | 第67-69页 |
第5章 行人检测系统集成及整体优化 | 第69-81页 |
5.1 行人检测系统搭建 | 第69-72页 |
5.1.1 图像采集系统 | 第69-71页 |
5.1.2 异构计算平台 | 第71-72页 |
5.2 CUDA任务的性能分析与优化 | 第72-75页 |
5.2.1 瓶颈识别 | 第72-73页 |
5.2.2 性能优化 | 第73-75页 |
5.3 异构计算平台下的视频处理改进 | 第75-76页 |
5.4 行人统计实验 | 第76-78页 |
5.5 本章小结 | 第78-81页 |
第6章 总结与展望 | 第81-83页 |
6.1 总结 | 第81页 |
6.2 展望 | 第81-83页 |
参考文献 | 第83-87页 |
致谢 | 第87页 |