摘要 | 第5-6页 |
Abstract | 第6-7页 |
第1章 绪论 | 第13-21页 |
1.1 研究背景和意义 | 第13-15页 |
1.2 研究现状及发展趋势 | 第15-18页 |
1.2.1 深度学习目标定位及位姿估计研究现状 | 第15-17页 |
1.2.2 智能机器人视觉技术研究现状 | 第17-18页 |
1.3 研究内容与方法 | 第18-19页 |
1.4 论文结构安排 | 第19-21页 |
第2章 相关技术研究 | 第21-37页 |
2.1 深度学习目标检测模型 | 第21-25页 |
2.1.1 目标识别定位模型:Faster R-CNN | 第22-25页 |
2.2 多任务学习模型 | 第25-27页 |
2.3 多任务模型训练 | 第27-29页 |
2.4 图像预处理 | 第29-31页 |
2.4.1 图像的畸变矫正 | 第29-31页 |
2.5 相机及视觉系统标定 | 第31-35页 |
2.5.1 相机内参数模型及标定实验 | 第32-35页 |
2.6 本章小结 | 第35-37页 |
第3章 基于深度学习的目标识别定位及位姿估计算法研究 | 第37-57页 |
3.1 目标识别定位及位姿估计问题描述 | 第37-38页 |
3.2 抓取场景:平面目标抓取位置检测模型 | 第38-46页 |
3.2.1 模型结构 | 第38-40页 |
3.2.2 模型评估标准 | 第40-41页 |
3.2.3 抓取点样本生成 | 第41-42页 |
3.2.4 抓取点检测 | 第42-44页 |
3.2.5 抓取位置检测损失函数 | 第44-46页 |
3.3 吸取场景:平面目标定位和位姿估计模型 | 第46-51页 |
3.3.1 模型结构 | 第46-47页 |
3.3.2 多任务结构模型压缩 | 第47-48页 |
3.3.3 模型评估标准 | 第48-50页 |
3.3.4 多任务损失函数 | 第50-51页 |
3.4 空间目标方位姿态检测模型及实验分析 | 第51-55页 |
3.4.1 数据集 | 第51-52页 |
3.4.2 模型评估标准 | 第52页 |
3.4.3 空间目标方位角检测实验 | 第52-55页 |
3.5 本章小结 | 第55-57页 |
第4章 单目二维视觉检测实验设计与验证 | 第57-77页 |
4.1 实物系统 | 第57-61页 |
4.1.1 视觉检测系统 | 第58-60页 |
4.1.2 运动执行机构 | 第60-61页 |
4.2 实验结果及分析 | 第61-74页 |
4.2.1 数据集 | 第61-62页 |
4.2.2 平面目标抓取位置检测 | 第62-66页 |
4.2.3 平面目标位姿估计检测 | 第66-69页 |
4.2.4 全连接层对多任务模型的影响 | 第69-73页 |
4.2.5 多个检测任务间的关系 | 第73-74页 |
4.3 本章小结 | 第74-77页 |
第5章 总结与展望 | 第77-79页 |
5.1 本文总结 | 第77-78页 |
5.2 本课题工作展望 | 第78-79页 |
参考文献 | 第79-85页 |
致谢 | 第85-87页 |
作者简历及攻读学位期间发表的学术论文与研究成果 | 第87页 |