机器人无标定视觉伺服关键技术的研究
| 摘要 | 第1-6页 |
| Abstract | 第6-14页 |
| 第1章 绪论 | 第14-34页 |
| ·课题背景 | 第14-15页 |
| ·机器人视觉伺服概述 | 第15-24页 |
| ·机器人视觉伺服系统结构分类 | 第15-21页 |
| ·机器人视觉伺服关键理论概述 | 第21-24页 |
| ·机器人无标定视觉伺服研究现状 | 第24-29页 |
| ·国外无标定视觉伺服研究现状 | 第26-28页 |
| ·国内无标定视觉伺服研究现状 | 第28-29页 |
| ·机器人无标定视觉伺服技术的研究热点 | 第29-32页 |
| ·高维空间中的机器人无标定视觉伺服技术 | 第29-30页 |
| ·无标定视觉伺服的图象特征提取 | 第30-31页 |
| ·无标定视觉伺服算法的动态残差项估计 | 第31页 |
| ·无标定视觉伺服的动态目标位移预测 | 第31-32页 |
| ·无标定视觉伺服的控制鲁棒性问题 | 第32页 |
| ·主要研究内容 | 第32-34页 |
| 第2章 基于自适应双阈值的小波边缘检测 | 第34-55页 |
| ·引言 | 第34-35页 |
| ·基于小波变换的边缘检测 | 第35-41页 |
| ·Mallat 小波变换 | 第36-38页 |
| ·Mallat 小波模极大值边缘检测 | 第38-39页 |
| ·小波函数选取 | 第39-41页 |
| ·小波边缘检测的双阈值自适应求解算法 | 第41-49页 |
| ·简化的双阈值求解算法 | 第41-45页 |
| ·双阈值的理论分析 | 第45-48页 |
| ·双阈值边缘检测 | 第48-49页 |
| ·双阈值小波边缘检测实验及分析 | 第49-54页 |
| ·双阈值小波边缘检测步骤 | 第49页 |
| ·实验结果分析 | 第49-54页 |
| ·本章小结 | 第54-55页 |
| 第3章 基于颜色和边缘信息融合的目标定位 | 第55-73页 |
| ·引言 | 第55-56页 |
| ·基于自选定区域颜色的图像分割 | 第56-63页 |
| ·颜色空间的选取 | 第56-58页 |
| ·选定区域的彩色图像阈值分割 | 第58-60页 |
| ·彩色分割实验 | 第60-63页 |
| ·基于边缘检测的图像分割 | 第63-65页 |
| ·颜色和边缘信息融合的图像分割及定位 | 第65-72页 |
| ·颜色和边缘信息融合的图像分割 | 第65-67页 |
| ·目标的定位 | 第67-70页 |
| ·实验结果分析 | 第70-72页 |
| ·本章小结 | 第72-73页 |
| 第4章 机器人无标定视觉伺服算法的研究 | 第73-94页 |
| ·引言 | 第73-74页 |
| ·无标定视觉伺服算法 | 第74-83页 |
| ·眼固定系统无标定视觉伺服算法 | 第74-76页 |
| ·眼在手上系统无标定视觉伺服算法 | 第76-79页 |
| ·动态Broyden 法估计图像雅克比矩阵 | 第79-80页 |
| ·动态无标定算法收敛性证明 | 第80-83页 |
| ·动态残差项和运动目标位移估计 | 第83-87页 |
| ·动态残差项的估计 | 第83-85页 |
| ·Kalman 运动目标估计 | 第85-87页 |
| ·仿真实验 | 第87-93页 |
| ·摄像机固定系统仿真实验 | 第87-90页 |
| ·眼在手上系统的仿真实验 | 第90-93页 |
| ·本章小结 | 第93-94页 |
| 第5章 机器人无标定视觉伺服实验研究 | 第94-109页 |
| ·引言 | 第94页 |
| ·实验系统的建立 | 第94-96页 |
| ·双目固定无标定机器人视觉伺服实验 | 第96-104页 |
| ·机器人跟踪静止目标实验 | 第99-100页 |
| ·机器人跟踪运动目标实验 | 第100-104页 |
| ·眼在手上无标定视觉伺服实验 | 第104-108页 |
| ·无雅可比矩阵变化量估计的视觉伺服实验 | 第105-106页 |
| ·雅可比矩阵变化量估计的视觉伺服实验 | 第106-108页 |
| ·本章小结 | 第108-109页 |
| 结论 | 第109-111页 |
| 参考文献 | 第111-121页 |
| 攻读学位期间发表的学术论文 | 第121-123页 |
| 致谢 | 第123-124页 |
| 个人简历 | 第124页 |