第1章 绪论 | 第1-27页 |
1.1 本课题的来源、目的及意义 | 第12-14页 |
1.2 虚拟现实遥现遥控系统 | 第14-17页 |
1.2.1 虚拟现实技术及其应用 | 第14-15页 |
1.2.2 虚拟现实遥现遥控系统 | 第15页 |
1.2.3 虚拟现实遥现遥控系统的构成及实现原理 | 第15-17页 |
1.3 虚拟现实遥现遥控远程前端的视觉系统的关键技术 | 第17-24页 |
1.3.1 虚拟现实遥现遥控远程前端的视觉系统 | 第17-18页 |
1.3.2 虚拟现实遥现遥控视觉系统的关键技术 | 第18-24页 |
1.4 本文完成的主要研究工作 | 第24-25页 |
1.5 本文的结构 | 第25-27页 |
第2章 多模型融合的机器视觉 | 第27-47页 |
2.1 引言 | 第27页 |
2.2 视觉理论和方向的讨论 | 第27-33页 |
2.2.1 视觉理论 | 第28-29页 |
2.2.2 视觉注意 | 第29-31页 |
2.2.3 视觉融合 | 第31-32页 |
2.2.4 主动视觉 | 第32-33页 |
2.3 多模型融合的视觉模型 | 第33-45页 |
2.3.1 模型种类 | 第33页 |
2.3.2 以极指数栅格技术为基础的视觉机理模型 | 第33-41页 |
2.3.3 以不变量为基础的视觉功能模型 | 第41-42页 |
2.3.4 以模仿人类搜索跟踪识别目标为特点的视觉行为模型 | 第42页 |
2.3.5 三种模型融合的视觉计算框架 | 第42-45页 |
2.4 本章小结 | 第45-47页 |
第3章 运动目标跟踪和识别 | 第47-66页 |
3.1 引言 | 第47页 |
3.2 运动目标定位和跟踪 | 第47-57页 |
3.2.1 直角坐标栅格二值目标形心快速搜索跟踪 | 第48-55页 |
3.2.2 极指数栅格二值目标跟踪方法 | 第55-57页 |
3.3 目标识别系统 | 第57-65页 |
3.3.1 不同视点下三维目标的表示 | 第57-58页 |
3.3.2 系统概述 | 第58页 |
3.3.3 实验方案 | 第58-65页 |
3.4 本章小结 | 第65-66页 |
第4章 极对数坐标中目标姿态检测和特征点对应 | 第66-88页 |
4.1 引言 | 第66-67页 |
4.2 基于波形结构特征的目标识别 | 第67-70页 |
4.2.1 波形结构特征 | 第67-69页 |
4.2.2 实验结果和分析 | 第69-70页 |
4.3 二维目标姿态检测和特征点对应算法 | 第70-81页 |
4.3.1 粗定位算法 | 第70-72页 |
4.3.2 细定位算法 | 第72-74页 |
4.3.3 角点提取 | 第74-76页 |
4.3.4 实验结果 | 第76-81页 |
4.4 三维目标姿态检测和特征点对应算法 | 第81-87页 |
4.4.1 目标模型库的建立 | 第82-83页 |
4.4.2 目标模型库的快速搜索 | 第83-84页 |
4.4.3 实验结果 | 第84-87页 |
4.5 本章小结 | 第87-88页 |
第5章 极对数坐标下光流计算与运动目标检测跟踪 | 第88-109页 |
5.1 引言 | 第88页 |
5.2 光流 | 第88-90页 |
5.2.1 修订的光流定义 | 第89页 |
5.2.2 广义动态图像模型 | 第89-90页 |
5.3 极对数坐标下基于GDIM的光流计算 | 第90-100页 |
5.3.1 极对数坐标下的梯度算子▽ | 第91-92页 |
5.3.2 极对数坐标下基于GDIM的光流计算 | 第92-96页 |
5.3.3 误差分析 | 第96页 |
5.3.4 光流计算实验结果和分析 | 第96-100页 |
5.4 目标检测和跟踪 | 第100-108页 |
5.4.1 运动区域的分割 | 第100-101页 |
5.4.2 目标检测 | 第101-103页 |
5.4.3 目标跟踪 | 第103-108页 |
5.5 本章小结 | 第108-109页 |
第6章 虚拟现实遥现遥控视觉系统 | 第109-115页 |
6.1 系统概述 | 第109-111页 |
6.1.1 远程作业环境(前端) | 第110-111页 |
6.1.2 本地作业环境(终端) | 第111页 |
6.1.3 通讯 | 第111页 |
6.2 系统实现和分析 | 第111-113页 |
6.3 本章小结 | 第113-115页 |
结论 | 第115-117页 |
参考文献 | 第117-128页 |
攻读博士学位期间发表的论文和取得的科研成果 | 第128-129页 |
致谢 | 第129页 |