基于操作者的视觉定位的自动化微操作方法研究
摘要 | 第4-5页 |
Abstract | 第5-6页 |
第1章 绪论 | 第10-20页 |
1.1 课题的来源 | 第10页 |
1.2 研究背景与研究动机 | 第10-12页 |
1.3 微操作系统分类 | 第12-14页 |
1.4 视线跟踪技术概述 | 第14-18页 |
1.4.1 视线跟踪技术 | 第14页 |
1.4.2 视线跟踪的眼动测量方法 | 第14-17页 |
1.4.3 视线跟踪技术的研究现状 | 第17-18页 |
1.5 研究内容与章节安排 | 第18-20页 |
第2章 视觉定位系统架构 | 第20-26页 |
2.1 视觉定位系统理论依据 | 第20-21页 |
2.2 视觉定位系统硬件方案设计 | 第21-24页 |
2.3 视觉定位系统软件方案设计 | 第24-25页 |
2.4 本章小结 | 第25-26页 |
第3章 瞳孔和角膜反射中心定位 | 第26-39页 |
3.1 红外人眼图像 | 第26页 |
3.2 图像预处理 | 第26-27页 |
3.3 人眼图像特征 | 第27-28页 |
3.4 瞳孔半精定位 | 第28-33页 |
3.4.1 下采样 | 第28-29页 |
3.4.2 阈值分割 | 第29-31页 |
3.4.3 连通域 | 第31-32页 |
3.4.4 扫描线法 | 第32页 |
3.4.5 基于对称性的圆检测方法 | 第32-33页 |
3.5 瞳孔精确定位 | 第33-36页 |
3.5.1 Hough变换圆检测原理 | 第34-35页 |
3.5.2 Hough变换圆检测计算量分析 | 第35-36页 |
3.6 提取角膜反射中心 | 第36-37页 |
3.7 本章小结 | 第37-39页 |
第4章 视觉定位系统标定方法 | 第39-52页 |
4.1 标定映射模型 | 第39-43页 |
4.1.1 基于n阶非线性多项式拟合标定 | 第39-42页 |
4.1.2 单应性矩阵 | 第42-43页 |
4.2 标定过程 | 第43-46页 |
4.2.1 映射模型的选择 | 第43-44页 |
4.2.2 标定点的设计 | 第44页 |
4.2.3 映射模型的参数求解 | 第44-46页 |
4.3 实验验证 | 第46-50页 |
4.3.1 标定实验 | 第46-48页 |
4.3.2 定位实验 | 第48-50页 |
4.4 本章小结 | 第50-52页 |
第5章 基于人眼注视点的自动化微操作策略研究 | 第52-57页 |
5.1 基于人机交互的微操作策略 | 第52-55页 |
5.2 微操作辅助定位策略 | 第55-56页 |
5.3 本章总结 | 第56-57页 |
第6章 微操作实验与分析 | 第57-69页 |
6.1 微操作机器人系统 | 第58-62页 |
6.1.1 微动平台 | 第58页 |
6.1.2 三自由度末端位姿调整机构 | 第58-59页 |
6.1.3 微夹钳 | 第59页 |
6.1.4 立体显微视觉系统 | 第59-62页 |
6.2 视觉定位系统的实现 | 第62-63页 |
6.3 微操作工具与微目标定位 | 第63-67页 |
6.4 实验结果分析 | 第67-68页 |
6.5 本章总结 | 第68-69页 |
第7章 总结与展望 | 第69-71页 |
7.1 总结 | 第69-70页 |
7.2 展望 | 第70-71页 |
致谢 | 第71-72页 |
参考文献 | 第72-76页 |
附录A 作者研究生期间发表学术论文情况 | 第76-77页 |
附录B 作者研究生期间参与的科研项目 | 第77页 |