面向杭白菊采摘机器人的目标识别定位系统研究
摘要 | 第5-7页 |
ABSTRACT | 第7-8页 |
第1章 绪论 | 第11-17页 |
1.1 杭白菊采摘机器人概述 | 第11-12页 |
1.2 国内外研究现状和发展趋势 | 第12-15页 |
1.2.1 国外的研究状况 | 第12-14页 |
1.2.2 国内的研究状况 | 第14-15页 |
1.3 本文主要研究内容 | 第15-16页 |
1.4 本章小结 | 第16-17页 |
第2章 杭白菊识别方法 | 第17-41页 |
2.1 杭白菊图像获取及其特点 | 第17-19页 |
2.1.1 图像获取 | 第17-18页 |
2.1.2 特点分析 | 第18页 |
2.1.3 识别方法 | 第18-19页 |
2.2 垄间杭白菊检测 | 第19-30页 |
2.2.1 颜色模型及转换 | 第19-23页 |
2.2.2 图像的去噪处理 | 第23-26页 |
2.2.3 图像分割 | 第26-30页 |
2.3 本文算法的实现 | 第30-39页 |
2.3.1 颜色空间的选择 | 第30-32页 |
2.3.2 传统模糊C-均值聚类(FCM)算法 | 第32-33页 |
2.3.3 基于S分量的快速FCM算法 | 第33-35页 |
2.3.4 实验与分析 | 第35-39页 |
2.4 本章小结 | 第39-41页 |
第3章 杭白菊果实位置信息的获取 | 第41-67页 |
3.1 双目立体视觉 | 第41-54页 |
3.1.1 摄像机的坐标系及其转换 | 第41-44页 |
3.1.2 透镜畸变 | 第44-45页 |
3.1.3 双目视觉系统 | 第45-47页 |
3.1.4 平面标定方法模型 | 第47-49页 |
3.1.5 摄像机标定实验 | 第49-54页 |
3.2 立体匹配 | 第54-61页 |
3.2.1 立体匹配概述 | 第54页 |
3.2.2 基于区域匹配 | 第54-55页 |
3.2.3 基于特征匹配 | 第55页 |
3.2.4 基于相位匹配 | 第55-56页 |
3.2.5 杭白菊目标的特征点匹配 | 第56-58页 |
3.2.6 基于质心特征的匹配算法 | 第58-61页 |
3.3 杭白菊的空间定位研究 | 第61-65页 |
3.3.1 空间定位原理 | 第61-62页 |
3.3.2 实验方案 | 第62-63页 |
3.3.3 实验所得数据 | 第63-64页 |
3.3.4 结论及分析 | 第64-65页 |
3.4 本章小结 | 第65-67页 |
第4章 机器人系统设计 | 第67-77页 |
4.1 硬件系统 | 第67-72页 |
4.1.1 机械臂 | 第67-68页 |
4.1.2 采摘末端执行器 | 第68-70页 |
4.1.3 计算机控制系统 | 第70-72页 |
4.2 控制流程 | 第72-73页 |
4.3 系统软件的结构与功能 | 第73-75页 |
4.4 本章小结 | 第75-77页 |
第5章 总结与展望 | 第77-81页 |
5.1 结论 | 第77-78页 |
5.2 创新点 | 第78页 |
5.3 展望 | 第78-81页 |
参考文献 | 第81-85页 |
致谢 | 第85-87页 |
攻读学位期间参加的科研项目和成果 | 第87页 |