摘要 | 第5-7页 |
Abstract | 第7-9页 |
第1章 绪论 | 第14-26页 |
1.1 选题背景及课题研究的意义 | 第14-16页 |
1.1.1 国内外挖掘机市场概况 | 第14-15页 |
1.1.2 国内挖掘机技术差距 | 第15-16页 |
1.1.3 课题研究的意义 | 第16页 |
1.2 基于视觉的智能挖掘机器人研究综述 | 第16-22页 |
1.2.1 挖掘机器人控制技术 | 第16-17页 |
1.2.2 智能挖掘机器人国内外研究现状 | 第17-20页 |
1.2.3 基于视觉的智能挖掘机器人 | 第20-22页 |
1.3 智能挖掘机器人视觉系统 | 第22-24页 |
1.4 本课题研究的主要内容 | 第24-26页 |
第2章 挖掘机器人样机研制、建模及轨迹规划 | 第26-60页 |
2.1 小松PC02-1挖掘机电液比例改造 | 第26-33页 |
2.1.1 小松挖掘机液压系统改造 | 第27-29页 |
2.1.2 倾角及压力传感器 | 第29-30页 |
2.1.3 挖掘机器人电气系统 | 第30-33页 |
2.2 挖掘机器人视觉系统 | 第33-34页 |
2.3 智能挖掘机器人仿真、控制环境 | 第34-38页 |
2.3.1 xPC实时仿真、控制平台 | 第34-36页 |
2.3.2 OpenCV开源图像处理技术 | 第36-37页 |
2.3.3 IMAQ Vision虚拟仪器图像库 | 第37-38页 |
2.4 挖掘机工作装置运动学模型 | 第38-44页 |
2.4.1 油缸伸缩长度与关节角的对应变换 | 第39-41页 |
2.4.2 机械臂关节空间到铲斗末端位姿空间变换 | 第41-43页 |
2.4.3 铲斗末端位姿空间到关节空间变换 | 第43-44页 |
2.5 挖掘机器人电液系统参数辨识 | 第44-50页 |
2.5.1 阀控液压缸系统模型 | 第44-47页 |
2.5.2 阀控液压缸系统参数辨识 | 第47-50页 |
2.6 基于RBF参数优化的工作装置运动轨迹规划 | 第50-53页 |
2.6.1 工作装置运动学逆解神经网络优化 | 第51-52页 |
2.6.2 挖掘机器人工作装置运动学仿真 | 第52-53页 |
2.7 基于ANFIS的挖掘机器人挖掘轨迹仿真 | 第53-59页 |
2.7.1 挖掘机器人挖掘作业模型分析 | 第54-55页 |
2.7.2 机械臂ANFIS模型 | 第55-59页 |
2.8 本章小结 | 第59-60页 |
第3章 挖掘机器人视觉系统图像处理与识别 | 第60-78页 |
3.1 道路环境及目标图像处理技术 | 第60-65页 |
3.1.1 室外道路图像傅里叶变换 | 第60-61页 |
3.1.2 铲斗图像直方图均匀化 | 第61-62页 |
3.1.3 道路图像去相关拉伸变换 | 第62-63页 |
3.1.4 二维中值滤波 | 第63-65页 |
3.2 视觉环境图像分割 | 第65-68页 |
3.2.1 边缘检测 | 第65-67页 |
3.2.2 分水岭阈值分割 | 第67-68页 |
3.3 Harris角点特征检测 | 第68-70页 |
3.4 图像不变矩特征 | 第70-72页 |
3.5 图像目标识别方法 | 第72-77页 |
3.5.1 不变矩目标识别方法 | 第72-73页 |
3.5.2 基于不变矩和BP网络的图像目标识别方法 | 第73-77页 |
3.6 本章小结 | 第77-78页 |
第4章 挖掘机器人视觉标定与双目立体视觉 | 第78-92页 |
4.1 挖掘机器人视觉系统标定 | 第78-84页 |
4.1.1 视觉系统标定模板 | 第78-79页 |
4.1.2 单目摄像机模型 | 第79-81页 |
4.1.3 基于平面模板的摄像机标定 | 第81-84页 |
4.2 双目立体视觉系统模型 | 第84-86页 |
4.3 挖掘机器人双目立体视觉标定 | 第86-88页 |
4.4 铲斗目标匹配 | 第88-90页 |
4.4.1 SIFT图像匹配方法 | 第88-89页 |
4.4.2 铲斗目标图像匹配试验 | 第89-90页 |
4.5 挖掘机器人双目立体视觉匹配 | 第90-91页 |
4.6 本章小结 | 第91-92页 |
第5章 挖掘机器人视觉测量、目标跟踪及定位 | 第92-108页 |
5.1 立体视觉深度信息测量 | 第92-93页 |
5.2 运动目标的视觉跟踪 | 第93-97页 |
5.2.1 Camshift运动目标跟踪算法 | 第93-95页 |
5.2.2 运动物体视觉跟踪OpenCV实现 | 第95-97页 |
5.3 基于颜色标记跟踪的铲斗目标及姿态识别 | 第97-103页 |
5.3.1 挖掘机器人铲斗基本动作 | 第98-99页 |
5.3.2 挖掘机器人铲斗标记颜色模型 | 第99-100页 |
5.3.3 挖掘机铲斗目标及姿态识别 | 第100-103页 |
5.4 图像雅可比矩阵及其估计 | 第103-105页 |
5.4.1 图像雅可比矩阵 | 第103-104页 |
5.4.2 图像雅可比矩阵的改进神经网络估计 | 第104-105页 |
5.5 挖掘机器人铲斗定位实验 | 第105-107页 |
5.6 本章小结 | 第107-108页 |
第6章 小生境粒子群优化的挖掘机器人自抗扰视觉控制 | 第108-122页 |
6.1 挖掘机器人视觉控制综述 | 第108-110页 |
6.1.1 基于位置的视觉控制系统 | 第108-109页 |
6.1.2 基于图像的视觉控制 | 第109-110页 |
6.2 粒子群优化算法 | 第110-115页 |
6.2.1 基本粒子群算法 | 第110-112页 |
6.2.2 小生境粒子群优化算法 | 第112-115页 |
6.3 自抗扰控制器设计 | 第115-118页 |
6.3.1 自抗扰控制器原理 | 第116页 |
6.3.2 自抗扰控制器结构设计 | 第116-117页 |
6.3.3 自抗扰控制器时变系统控制性能仿真 | 第117-118页 |
6.4 粒子群优化自抗扰控制器算法流程 | 第118-119页 |
6.5 基于视觉的自抗扰控制仿真 | 第119-121页 |
6.6 本章小结 | 第121-122页 |
第7章 基于视觉的挖掘机器人行为控制研究 | 第122-134页 |
7.1 挖掘机器人的行为控制体系结构 | 第122-123页 |
7.2 挖掘目标状态流模型参数确定 | 第123-128页 |
7.3 模糊聚类判别算法 | 第128-130页 |
7.4 挖掘目标状态流实现 | 第130-133页 |
7.5 本章小结 | 第133-134页 |
第8章 总结与展望 | 第134-136页 |
8.1 研究总结 | 第134-135页 |
8.2 前景与展望 | 第135-136页 |
参考文献 | 第136-147页 |
致谢 | 第147-148页 |
附录A 作者简介 | 第148-149页 |
附录B 攻读博士学位期间发表的学术论文 | 第149-150页 |
附录C 攻读博士学位期间参加的科研项目 | 第150-151页 |
附录D 攻读博士期间获得的荣誉与奖励 | 第151页 |