基于视觉的自平衡小车协同行进控制研究
中文摘要 | 第3-5页 |
英文摘要 | 第5-6页 |
1 绪论 | 第9-18页 |
1.1 问题的提出及研究意义 | 第9-12页 |
1.1.1 问题提出 | 第9-11页 |
1.1.2 研究意义 | 第11-12页 |
1.2 相关问题国内外现状 | 第12-16页 |
1.2.1 自平衡机器人研究现状 | 第12-14页 |
1.2.2 智能车协同跟踪控制研究现状 | 第14-16页 |
1.3 本文研究内容 | 第16-18页 |
2 自平衡小车系统模型研究 | 第18-27页 |
2.1 波动模型分析与建立 | 第18-24页 |
2.1.1 系统自平衡模型分析 | 第18-21页 |
2.1.2 图像采集时波动性模型分析 | 第21-24页 |
2.2 车距模型分析与建立 | 第24-26页 |
2.2.1 标识物的设计与安放 | 第24-25页 |
2.2.2 车距判断模型 | 第25-26页 |
2.3 本章小结 | 第26-27页 |
3 图像处理的基本理论 | 第27-43页 |
3.1 图像增强处理 | 第27-33页 |
3.1.1 灰度值修正 | 第27-30页 |
3.1.2 图像滤波平滑处理 | 第30-33页 |
3.2 图像区域描述 | 第33-39页 |
3.2.1 图像有效区域的确定 | 第33-36页 |
3.2.2 图像中距离的描述 | 第36-37页 |
3.2.3 图像中形状描述 | 第37-39页 |
3.3 图像解码研究 | 第39-42页 |
3.3.1 图像文件格式及类型 | 第39-40页 |
3.3.2 图像编解码过程分析 | 第40-42页 |
3.4 本章小结 | 第42-43页 |
4 控制决策分析与设计 | 第43-55页 |
4.1 系统自身PID平衡控制研究 | 第43-48页 |
4.1.1 系统零输入响应分析 | 第44-45页 |
4.1.2 PID控制仿真分析 | 第45-48页 |
4.2 协同行进控制方案设计 | 第48-54页 |
4.2.1 车距决策分析 | 第48-50页 |
4.2.2 速度控制分析 | 第50-52页 |
4.2.3 方向矫正分析 | 第52-54页 |
4.3 本章小结 | 第54-55页 |
5 实验环境搭建与结果 | 第55-64页 |
5.1 硬件环境的搭建 | 第55-59页 |
5.1.1 自平衡小车硬件环境介绍 | 第55-56页 |
5.1.2 摄像头的选择与安放 | 第56-58页 |
5.1.3 系统整体方案设计 | 第58-59页 |
5.2 软件方案设计 | 第59-62页 |
5.2.1 图像采集与增强处理程序 | 第60-61页 |
5.2.2 协同跟踪处理程序 | 第61-62页 |
5.3 实验结果 | 第62-63页 |
5.4 本章小结 | 第63-64页 |
6 结论与展望 | 第64-66页 |
6.1 总结 | 第64-65页 |
6.2 展望 | 第65-66页 |
致谢 | 第66-67页 |
参考文献 | 第67-69页 |