双目家政机器人的目标物识别及抓取研究
摘要 | 第1-6页 |
Abstract | 第6-9页 |
第一章 绪论 | 第9-14页 |
·引言 | 第9-10页 |
·课题研究的目标以及需要解决的关键技术分析 | 第10-11页 |
·双目视觉伺服系统的研究现状 | 第11-12页 |
·本文研究内容 | 第12-14页 |
第二章 家政机器人视觉伺服系统控制基础 | 第14-35页 |
·摄像机模型 | 第14-24页 |
·三维空间的坐标变换 | 第14-16页 |
·线性摄像机模型 | 第16-22页 |
·非线性摄像机模型 | 第22-24页 |
·机器人手臂-摄像机标定 | 第24-25页 |
·机器人手臂坐标变换 | 第25-27页 |
·机器人运动学方程的D-H表示法 | 第27-29页 |
·机器人手臂视觉伺服控制中的运动学 | 第29-31页 |
·基于位置的视觉伺服控制结构 | 第31-33页 |
·基于图像的视觉伺服控制结构 | 第33-35页 |
第三章 家政机器人立体视觉信息的获取 | 第35-58页 |
·机器人立体视觉原理 | 第35-39页 |
·视觉测距原理 | 第35-36页 |
·获取空间中某点的深度信息 | 第36-39页 |
·机器人获取立体视觉信息的步骤 | 第39-44页 |
·获取图像 | 第39页 |
·摄像机标定 | 第39页 |
·特征提取 | 第39-40页 |
·立体匹配 | 第40-43页 |
·三维信息恢复 | 第43页 |
·后处理 | 第43-44页 |
·机器人目标物体识别 | 第44-53页 |
·建立尺度空间 | 第45-47页 |
·尺度空间极值检测 | 第47-50页 |
·关键点方向参数的确定 | 第50-51页 |
·提取关键点的特征描述符 | 第51-52页 |
·利用特征描述符寻找匹配点 | 第52-53页 |
·改进的基于SIFT算法的目标物轮廓识别 | 第53-58页 |
·Snake模型的数学描述 | 第53-55页 |
·Snake模型与SIFT算法的结合 | 第55-58页 |
第四章 家政服务机器人目标物抓取实验 | 第58-73页 |
·家政机器人硬件组成 | 第58-61页 |
·改进的视觉伺服控制系统结构 | 第61-63页 |
·家政机器人手臂的运动学规划求解 | 第63-67页 |
·家政服务机器人平台及其实验结果 | 第67-73页 |
·家政机器人手眼坐标动态变换关系 | 第68-70页 |
·家政机器人目标识别及抓取 | 第70-73页 |
结论 | 第73-75页 |
参考文献 | 第75-78页 |
攻读博士/硕士学位期间取得的研究成果 | 第78-79页 |
致谢 | 第79页 |