机器人抓取中视觉触觉融合的技术研究
摘要 | 第4-5页 |
ABSTRACT | 第5-6页 |
第一章 绪论 | 第9-18页 |
1.1 研究背景与意义 | 第9-10页 |
1.2 国内外的研究情况及其发展趋势 | 第10-17页 |
1.2.1 目标识别现状与发展 | 第10-12页 |
1.2.2 目标定位现状与发展 | 第12-13页 |
1.2.3 机器人抓取的现状与发展 | 第13-17页 |
1.3 论文研究内容及结构安排 | 第17-18页 |
1.3.1 研究内容 | 第17页 |
1.3.2 结构安排 | 第17-18页 |
第二章 视觉基础理论和相关技术 | 第18-29页 |
2.1 物体识别的主要流程 | 第18-19页 |
2.1.1 数据预处理 | 第18-19页 |
2.1.2 特征提取 | 第19页 |
2.2 卷积神经网络 | 第19-24页 |
2.2.1 神经网络 | 第20-21页 |
2.2.2 CNN理论 | 第21-23页 |
2.2.3 CNN模型 | 第23-24页 |
2.2.4 CNN相关算法 | 第24页 |
2.3 YOLO算法 | 第24-27页 |
2.4 Kinect的技术原理 | 第27-29页 |
2.4.1 Kinect的硬件构成 | 第27-28页 |
2.4.2 Kinect深度采集原理 | 第28-29页 |
第三章 机器人抓取的目标识别及三维定位算法 | 第29-35页 |
3.1 目标识别模块 | 第29-30页 |
3.2 深度信息采集模块 | 第30页 |
3.3 信息融合模块 | 第30-35页 |
3.3.1 图像的配准 | 第30-31页 |
3.3.2 目标深度提取 | 第31-32页 |
3.3.3 三维坐标的计算 | 第32-35页 |
第四章 视觉与触觉融合的实现 | 第35-39页 |
4.1 触觉信息采集模块 | 第35-37页 |
4.1.1 触觉信息采集模块原理 | 第35-37页 |
4.1.2 触觉压力的反馈系数设置 | 第37页 |
4.2 视觉与触觉融合实现 | 第37-39页 |
第五章 机器人目标抓取原型系统 | 第39-44页 |
5.1 系统的整体描述 | 第39-40页 |
5.2 视觉定位实验 | 第40-43页 |
5.3 视触融合实验 | 第43-44页 |
第六章 总结与展望 | 第44-45页 |
6.1 工作总结 | 第44页 |
6.2 未来展望 | 第44-45页 |
参考文献 | 第45-49页 |
在学期间的研究成果 | 第49-50页 |
致谢 | 第50页 |