摘要 | 第5-6页 |
Abstract | 第6-7页 |
第一章 绪论 | 第11-20页 |
1.1 引言 | 第11-12页 |
1.2 仿人机器人的研究现状 | 第12-15页 |
1.2.1 国外研究现状 | 第12-14页 |
1.2.2 国内研究现状 | 第14-15页 |
1.3 相关技术研究现状 | 第15-18页 |
1.3.1 基于强化学习的行走稳定控制 | 第15-16页 |
1.3.2 仿人机器人软件系统 | 第16页 |
1.3.3 基于双目视觉的手势识别 | 第16-17页 |
1.3.4 人机对话中物体指称的解析 | 第17-18页 |
1.4 本文主要工作 | 第18-19页 |
1.5 本文组织结构 | 第19-20页 |
第二章 仿人机器人的软件架构设计 | 第20-38页 |
2.1 软件架构概述 | 第20-21页 |
2.2 仿人机器人软件系统的功能需求 | 第21页 |
2.3 仿人机器人软件系统的质量需求 | 第21-24页 |
2.4 技术方案 | 第24-32页 |
2.4.1 硬件平台 | 第24-25页 |
2.4.2 操作系统 | 第25-26页 |
2.4.3 基本框架 | 第26-28页 |
2.4.4 普通进程与ROS节点的通信 | 第28-31页 |
2.4.5 ROS节点的双向通信 | 第31-32页 |
2.5 架构设计 | 第32-36页 |
2.5.1 架构视图介绍 | 第32-34页 |
2.5.2 组件—连接器视图 | 第34-35页 |
2.5.3 部署视图 | 第35-36页 |
2.6 本章小结 | 第36-38页 |
第三章 基于双目视觉的手势识别 | 第38-48页 |
3.1 双目视觉介绍 | 第38-42页 |
3.1.1 双目测距原理 | 第38-39页 |
3.1.2 相机标定 | 第39-41页 |
3.1.3 双目匹配 | 第41-42页 |
3.2 手部区域提取 | 第42-45页 |
3.2.1 肤色模型 | 第42-43页 |
3.2.2 深度图直方图 | 第43-45页 |
3.2.3 噪点消除及图像裁减 | 第45页 |
3.3 手势识别 | 第45-47页 |
3.3.1 特征提取 | 第45-46页 |
3.3.2 手势分类 | 第46-47页 |
3.4 本章小结 | 第47-48页 |
第四章 人机对话中物体指称的解析 | 第48-63页 |
4.1 指称解析介绍 | 第48页 |
4.2 人类描述物体的方式 | 第48-51页 |
4.3 计算机对特征的理解 | 第51-52页 |
4.4 数据结构 | 第52-54页 |
4.4.1 ARG | 第52-53页 |
4.4.2 语义图与视觉图 | 第53-54页 |
4.5 物体匹配 | 第54-62页 |
4.5.1 匹配问题描述 | 第54-55页 |
4.5.2 匹配算法 | 第55-59页 |
4.5.3 迭代基本步骤 | 第59-60页 |
4.5.4 相似度度量 | 第60-62页 |
4.6 本章小结 | 第62-63页 |
第五章 实验结果及分析 | 第63-82页 |
5.1 实验平台介绍 | 第63-67页 |
5.1.1 仿人机器人 | 第63-64页 |
5.1.2 控制平台 | 第64-65页 |
5.1.3 双目相机 | 第65-67页 |
5.2 软件系统实时性测试 | 第67-70页 |
5.2.1 Low-Latency Kernel实时性测试 | 第67-68页 |
5.2.2 ROS通信性能测试 | 第68-70页 |
5.3 强化学习控制器在仿真平台上的训练 | 第70-73页 |
5.3.1 Webots仿真平台的接入 | 第70-71页 |
5.3.2 控制器的训练 | 第71-73页 |
5.4 仿人机器人的行走 | 第73-74页 |
5.5 手势识别实验 | 第74-77页 |
5.5.1 相机标定 | 第74-75页 |
5.5.2 训练 | 第75-76页 |
5.5.3 实验及结果分析 | 第76-77页 |
5.6 指称解析实验 | 第77-78页 |
5.7 系统应用 | 第78-81页 |
5.7.1 基于手势的复杂人机交互 | 第78-80页 |
5.7.2 智能机器人绘画系统 | 第80-81页 |
5.8 本章小结 | 第81-82页 |
结论 | 第82-84页 |
参考文献 | 第84-89页 |
攻读硕士学位期间取得的研究成果 | 第89-90页 |
致谢 | 第90-91页 |
附件 | 第91页 |