基于SIFT特征的实时视频宽场景合成系统的设计与实现
摘要 | 第5-6页 |
Abstract | 第6-7页 |
1 绪论 | 第10-15页 |
1.1 研究的背景和意义 | 第10页 |
1.2 发展动态及国内外相关研究 | 第10-14页 |
1.3 论文结构和主要工作内容 | 第14-15页 |
2 相关技术 | 第15-22页 |
2.1 视频数据的采集 | 第15-16页 |
2.2 图像配准技术 | 第16-21页 |
2.2.1 基于灰度的配准算法 | 第17-18页 |
2.2.2 基于变换域的配准算法 | 第18-19页 |
2.2.3 基于特征的配准算法 | 第19-21页 |
2.3 视频图像融合技术 | 第21-22页 |
3 实时视频宽场景合成相关算法的选择 | 第22-34页 |
3.1 视频帧特征提取 | 第22-30页 |
3.1.1 Harris算法 | 第22-24页 |
3.1.2 SIFT算法 | 第24-28页 |
3.1.3 基于SIFT算法的变形算法 | 第28-30页 |
3.2 SIFT特征匹配 | 第30-32页 |
3.2.1 k-d树算法 | 第30-31页 |
3.2.2 RANSAC算法提纯 | 第31-32页 |
3.3 视频帧融合 | 第32-34页 |
3.3.1 直接平均法 | 第32页 |
3.3.2 加权平均法 | 第32-33页 |
3.3.3 多分辨率融合法 | 第33-34页 |
4 实时视频宽场景合成系统的设计 | 第34-54页 |
4.1 系统的运用场景 | 第34页 |
4.2 系统的整体架构 | 第34-36页 |
4.3 流程与算法设计 | 第36-54页 |
4.3.1 摄像机标定与图像校正 | 第36-40页 |
4.3.2 高斯模糊 | 第40-44页 |
4.3.3 尺度空间极值检测 | 第44-47页 |
4.3.4 关键点定位 | 第47-48页 |
4.3.5 关键点方向分配 | 第48-49页 |
4.3.6 关键点特征描述 | 第49-52页 |
4.3.7 图像融合 | 第52-54页 |
5 实时视频宽场景合成系统的实现 | 第54-64页 |
5.1 开发环境 | 第54页 |
5.2 程序函数架构 | 第54-59页 |
5.2.1 SIFT算法的c++实现 | 第54-56页 |
5.2.2 调用OpenCV中的几个函数 | 第56-57页 |
5.2.3 自定义的几个函数 | 第57-59页 |
5.3 系统的应用 | 第59-61页 |
5.3.1 旋转关系下的两图像合成 | 第59-60页 |
5.3.2 平移关系下的两图像合成 | 第60-61页 |
5.4 视频实时合成结果 | 第61-63页 |
5.5 程序代码具体实现中的几个问题 | 第63-64页 |
6 总结和展望 | 第64-66页 |
6.1 总结 | 第64-65页 |
6.2 展望 | 第65-66页 |
参考文献 | 第66-69页 |
致谢 | 第69-70页 |
个人简历 | 第70页 |
发表的学术论文 | 第70页 |