致谢 | 第5-6页 |
摘要 | 第6-7页 |
Abstract | 第7页 |
命名法和全称对比目录 | 第13-14页 |
1 绪论 | 第14-22页 |
1.1 课题研究背景和意义 | 第14-15页 |
1.2 USV环境感知系统的研究概述 | 第15-20页 |
1.2.1 基于立体视觉的USV环境感知技术研究 | 第16-17页 |
1.2.2 基于滤波算法的USV环境感知技术研究 | 第17-20页 |
1.3 本文主要内容及创新 | 第20-22页 |
2 基于立体视觉和滤波算法的USV环境感知系统设计方案 | 第22-26页 |
2.1 环境感知系统的目标和常见解决方案 | 第22-23页 |
2.2 整体环境感知系统结构 | 第23-24页 |
2.3 本环境感知系统的各模块研究与实现 | 第24-26页 |
3 应用于USV环境感知的语义识别算法研究 | 第26-42页 |
3.1 基于YOLO的目标检测模块 | 第27-32页 |
3.1.1 YOLO目标检测原理 | 第27-30页 |
3.1.2 基于YOLO的目标检测模块实验 | 第30-32页 |
3.2 基于HED的边缘提取模块 | 第32-35页 |
3.2.1 HED边缘提取网络原理 | 第32-33页 |
3.2.2 实际场景下HED边缘提取实验 | 第33-35页 |
3.3 细分属性网络Modified-ResNet | 第35-40页 |
3.3.1 Modified-ResNet细分属性网络的结构与原理 | 第36-38页 |
3.3.2 Modified-ResNet的细分属性网络实验 | 第38-40页 |
3.4 语义掩码生成与稀疏语义信息提取方案与实验 | 第40-42页 |
4 应用于USV环境感知的立体视觉算法研究 | 第42-60页 |
4.1 双目摄像头的标定与矫正 | 第42-49页 |
4.1.1 摄像机成像原理 | 第42-44页 |
4.1.2 摄像机的标定与矫正算法 | 第44-47页 |
4.1.3 摄像头标定与矫正实验 | 第47-49页 |
4.2 基于立体视觉的深度预测算法研究 | 第49-56页 |
4.2.1 立体视觉深度预测 | 第53-55页 |
4.2.2 本模块在渔业应用 | 第55-56页 |
4.3 基于语义信息的立体视觉后端优化算法研究与实验 | 第56-60页 |
5 应用于USV环境感知的目标跟踪算法研究 | 第60-98页 |
5.1 激光雷达-视觉融合模块 | 第60-62页 |
5.2 目标跟踪问题的数学描述 | 第62-67页 |
5.2.1 目标跟踪问题的概率学解释 | 第62-63页 |
5.2.2 本跟踪任务的数学模型 | 第63-65页 |
5.2.3 本状态估计系统的实际场景描述 | 第65-67页 |
5.3 “非线性迁移”噪声模型 | 第67-74页 |
5.3.1 “非线性迁移”噪声模型的方位角测量验证 | 第68-72页 |
5.3.2 “非线性迁移”噪声模型的距离测量验证 | 第72-74页 |
5.4 假设分析滤波器算法框架 | 第74-78页 |
5.4.1 假设分析滤波器算法 | 第74-76页 |
5.4.2 假设分析滤波器的分析和收敛性证明 | 第76-78页 |
5.5 假设分析滤波器跟踪实验 | 第78-98页 |
5.5.1 假设分析滤波器的纯方位角跟踪实验 | 第78-85页 |
5.5.2 假设分析滤波器的纯距离跟踪实验 | 第85-91页 |
5.5.3 假设分析滤波器的方位角-距离混合跟踪实验 | 第91-98页 |
6 全文总结和展望 | 第98-100页 |
6.1 全文总结 | 第98-99页 |
6.2 展望 | 第99-100页 |
参考文献 | 第100-108页 |
攻读硕士学位期间科研成果 | 第108-110页 |
作者简历 | 第110页 |