摘要 | 第1-6页 |
Abstract | 第6-10页 |
第1章 绪论 | 第10-19页 |
·研究背景及意义 | 第10-11页 |
·机器人视觉控制方法综述 | 第11-16页 |
·视觉伺服系统的结构 | 第11页 |
·视觉伺服系统的分类 | 第11-13页 |
·基于位置的机器人视觉伺服系统 | 第13-14页 |
·基于图像的机器人视觉伺服系统 | 第14-15页 |
·2D-1/2 视觉伺服方法 | 第15页 |
·视觉控制算法 | 第15-16页 |
·视觉伺服系统的国内外研究现状 | 第16-17页 |
·本文所做的工作 | 第17-19页 |
第2章 基于图像的机器人视觉伺服问题 | 第19-26页 |
·引言 | 第19-20页 |
·摄像机的内外参数 | 第20-22页 |
·手眼关系 | 第22-24页 |
·图像特征 | 第24-25页 |
·利用视觉信息控制机器人 | 第25页 |
·本章小结 | 第25-26页 |
第3章 基于优化的RBF-DDA 神经网络摄像机标定技术 | 第26-34页 |
·摄像机标定技术 | 第26-27页 |
·RBF 神经网络动态衰减调节算法的优化设计 | 第27-29页 |
·基于优化RBF-DDA 算法的函数逼近实验 | 第29-30页 |
·优化RBF-DDA 神经网络在摄像机标定中的应用 | 第30-32页 |
·粗调阶段 | 第30-32页 |
·精调阶段 | 第32页 |
·摄像机标定实验 | 第32-33页 |
·本章小结 | 第33-34页 |
第4章 具有深度自适应估计的视觉伺服变结构控制 | 第34-46页 |
·引言 | 第34-35页 |
·预备知识 | 第35-37页 |
·图像雅可比矩阵 | 第35-36页 |
·常引用的符号 | 第36-37页 |
·主要结果 | 第37-39页 |
·仿真实例 | 第39-45页 |
·本章小结 | 第45-46页 |
第5章 具有变结构控制器的无定标视觉伺服 | 第46-55页 |
·引言 | 第46-47页 |
·雅可比矩阵的估计 | 第47-48页 |
·在线雅可比矩阵的估计 | 第48-49页 |
·动态类牛顿法估计图像雅可比矩阵 | 第48页 |
·最小二乘算法 | 第48-49页 |
·控制算法 | 第49-51页 |
·仿真实例 | 第51-54页 |
·本章小结 | 第54-55页 |
第6章 MOTOMAN 机器人“手眼”视觉定位实验系统 | 第55-66页 |
·引言 | 第55页 |
·特征选取 | 第55-56页 |
·系统硬件组成 | 第56-59页 |
·视觉系统的组成 | 第56-58页 |
·机器人系统的组成 | 第58-59页 |
·视觉定位系统的软件设计 | 第59-62页 |
·系统简介 | 第59-60页 |
·模块划分 | 第60页 |
·界面介绍 | 第60-62页 |
·MOTOMAN 机器人视觉定位实验 | 第62-65页 |
·本章小结 | 第65-66页 |
结论 | 第66-68页 |
参考文献 | 第68-73页 |
攻读硕士学位期间承担的科研任务与主要成果 | 第73-74页 |
致谢 | 第74-75页 |
作者简介 | 第75页 |