摘要 | 第4-5页 |
Abstract | 第5页 |
第1章 绪论 | 第9-19页 |
1.1 课题提出与研究意义 | 第9-10页 |
1.2 手术导航的研究现状 | 第10-12页 |
1.2.1 国外研究现状 | 第10-11页 |
1.2.2 国内研究现状 | 第11-12页 |
1.3 增强现实图像融合的研究现状 | 第12-17页 |
1.3.1 增强现实图像融合的发展 | 第12-13页 |
1.3.2 增强现实图像融合的方法 | 第13-14页 |
1.3.3 增强现实图像融合的应用 | 第14-17页 |
1.4 应用于手术导航的图像融合技术存在的主要问题 | 第17页 |
1.5 本文主要研究内容 | 第17-19页 |
第2章 增强现实空间定位系统设计 | 第19-31页 |
2.1 系统设计原理 | 第19-22页 |
2.1.1 硬件部分的组成 | 第20-21页 |
2.1.2 软件部分的组成 | 第21-22页 |
2.2 空间定位系统模型建立 | 第22-27页 |
2.2.1 摄像机成像模型的建立 | 第22-23页 |
2.2.2 立体视觉相关坐标系的转换关系 | 第23-25页 |
2.2.3 双目立体视觉成像原理 | 第25-27页 |
2.3 摄像机标定技术研究 | 第27-30页 |
2.3.1 传统的摄像机标定技术 | 第27页 |
2.3.2 基于 Matlab 工具箱的标定方法及实验 | 第27-30页 |
2.4 本章小结 | 第30-31页 |
第3章 双目视觉图像融合方法研究 | 第31-41页 |
3.1 双目视觉图像融合设计 | 第31-34页 |
3.1.1 外加标志点的设计 | 第32页 |
3.1.2 目标窗口定位方法 | 第32-34页 |
3.2 双目图像匹配方法研究 | 第34-37页 |
3.2.1 标志点的提取 | 第34-36页 |
3.2.2 基于特征的匹配 | 第36-37页 |
3.3 双目图像融合及评价方法研究 | 第37-40页 |
3.3.1 图像融合策略分析 | 第37-38页 |
3.3.2 加权图像融合方法及实验 | 第38页 |
3.3.3 图像像素灰度值极大(小)融合法及实验 | 第38-39页 |
3.3.4 图像融合评价方法研究 | 第39-40页 |
3.4 本章小结 | 第40-41页 |
第4章 图像融合在增强现实系统中的显示方法研究 | 第41-51页 |
4.1 基于增强现实的外科手术导航 | 第41-42页 |
4.2 虚实配准研究 | 第42-45页 |
4.2.1 虚实配准原理分析 | 第42-44页 |
4.2.2 虚实配准的方法研究 | 第44-45页 |
4.3 融合图像的可视化 | 第45-49页 |
4.3.1 手术场景的三维重建 | 第46-47页 |
4.3.2 融合图像的显示 | 第47-49页 |
4.4 本章小结 | 第49-51页 |
第5章 实验研究 | 第51-63页 |
5.1 实验系统组成 | 第51-52页 |
5.2 系统工作流程 | 第52-53页 |
5.3 标定实验及误差分析 | 第53-55页 |
5.4 基于增强现实的图像融合实验及分析 | 第55-59页 |
5.4.1 标志点匹配及分析 | 第55-57页 |
5.4.2 双目图像融合实验及分析 | 第57-59页 |
5.5 虚实场景的融合显示综合实验 | 第59-61页 |
5.6 本章小结 | 第61-63页 |
第6章 总结与展望 | 第63-65页 |
6.1 全文总结 | 第63-64页 |
6.2 展望 | 第64-65页 |
参考文献 | 第65-69页 |
作者简介及科研成果 | 第69-71页 |
致谢 | 第71页 |