双目家政机器人的目标物识别及抓取研究
| 摘要 | 第1-6页 |
| Abstract | 第6-9页 |
| 第一章 绪论 | 第9-14页 |
| ·引言 | 第9-10页 |
| ·课题研究的目标以及需要解决的关键技术分析 | 第10-11页 |
| ·双目视觉伺服系统的研究现状 | 第11-12页 |
| ·本文研究内容 | 第12-14页 |
| 第二章 家政机器人视觉伺服系统控制基础 | 第14-35页 |
| ·摄像机模型 | 第14-24页 |
| ·三维空间的坐标变换 | 第14-16页 |
| ·线性摄像机模型 | 第16-22页 |
| ·非线性摄像机模型 | 第22-24页 |
| ·机器人手臂-摄像机标定 | 第24-25页 |
| ·机器人手臂坐标变换 | 第25-27页 |
| ·机器人运动学方程的D-H表示法 | 第27-29页 |
| ·机器人手臂视觉伺服控制中的运动学 | 第29-31页 |
| ·基于位置的视觉伺服控制结构 | 第31-33页 |
| ·基于图像的视觉伺服控制结构 | 第33-35页 |
| 第三章 家政机器人立体视觉信息的获取 | 第35-58页 |
| ·机器人立体视觉原理 | 第35-39页 |
| ·视觉测距原理 | 第35-36页 |
| ·获取空间中某点的深度信息 | 第36-39页 |
| ·机器人获取立体视觉信息的步骤 | 第39-44页 |
| ·获取图像 | 第39页 |
| ·摄像机标定 | 第39页 |
| ·特征提取 | 第39-40页 |
| ·立体匹配 | 第40-43页 |
| ·三维信息恢复 | 第43页 |
| ·后处理 | 第43-44页 |
| ·机器人目标物体识别 | 第44-53页 |
| ·建立尺度空间 | 第45-47页 |
| ·尺度空间极值检测 | 第47-50页 |
| ·关键点方向参数的确定 | 第50-51页 |
| ·提取关键点的特征描述符 | 第51-52页 |
| ·利用特征描述符寻找匹配点 | 第52-53页 |
| ·改进的基于SIFT算法的目标物轮廓识别 | 第53-58页 |
| ·Snake模型的数学描述 | 第53-55页 |
| ·Snake模型与SIFT算法的结合 | 第55-58页 |
| 第四章 家政服务机器人目标物抓取实验 | 第58-73页 |
| ·家政机器人硬件组成 | 第58-61页 |
| ·改进的视觉伺服控制系统结构 | 第61-63页 |
| ·家政机器人手臂的运动学规划求解 | 第63-67页 |
| ·家政服务机器人平台及其实验结果 | 第67-73页 |
| ·家政机器人手眼坐标动态变换关系 | 第68-70页 |
| ·家政机器人目标识别及抓取 | 第70-73页 |
| 结论 | 第73-75页 |
| 参考文献 | 第75-78页 |
| 攻读博士/硕士学位期间取得的研究成果 | 第78-79页 |
| 致谢 | 第79页 |