首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

基于立体视觉和滤波算法的无人船环境感知技术研究

致谢第5-6页
摘要第6-7页
Abstract第7页
命名法和全称对比目录第13-14页
1 绪论第14-22页
    1.1 课题研究背景和意义第14-15页
    1.2 USV环境感知系统的研究概述第15-20页
        1.2.1 基于立体视觉的USV环境感知技术研究第16-17页
        1.2.2 基于滤波算法的USV环境感知技术研究第17-20页
    1.3 本文主要内容及创新第20-22页
2 基于立体视觉和滤波算法的USV环境感知系统设计方案第22-26页
    2.1 环境感知系统的目标和常见解决方案第22-23页
    2.2 整体环境感知系统结构第23-24页
    2.3 本环境感知系统的各模块研究与实现第24-26页
3 应用于USV环境感知的语义识别算法研究第26-42页
    3.1 基于YOLO的目标检测模块第27-32页
        3.1.1 YOLO目标检测原理第27-30页
        3.1.2 基于YOLO的目标检测模块实验第30-32页
    3.2 基于HED的边缘提取模块第32-35页
        3.2.1 HED边缘提取网络原理第32-33页
        3.2.2 实际场景下HED边缘提取实验第33-35页
    3.3 细分属性网络Modified-ResNet第35-40页
        3.3.1 Modified-ResNet细分属性网络的结构与原理第36-38页
        3.3.2 Modified-ResNet的细分属性网络实验第38-40页
    3.4 语义掩码生成与稀疏语义信息提取方案与实验第40-42页
4 应用于USV环境感知的立体视觉算法研究第42-60页
    4.1 双目摄像头的标定与矫正第42-49页
        4.1.1 摄像机成像原理第42-44页
        4.1.2 摄像机的标定与矫正算法第44-47页
        4.1.3 摄像头标定与矫正实验第47-49页
    4.2 基于立体视觉的深度预测算法研究第49-56页
        4.2.1 立体视觉深度预测第53-55页
        4.2.2 本模块在渔业应用第55-56页
    4.3 基于语义信息的立体视觉后端优化算法研究与实验第56-60页
5 应用于USV环境感知的目标跟踪算法研究第60-98页
    5.1 激光雷达-视觉融合模块第60-62页
    5.2 目标跟踪问题的数学描述第62-67页
        5.2.1 目标跟踪问题的概率学解释第62-63页
        5.2.2 本跟踪任务的数学模型第63-65页
        5.2.3 本状态估计系统的实际场景描述第65-67页
    5.3 “非线性迁移”噪声模型第67-74页
        5.3.1 “非线性迁移”噪声模型的方位角测量验证第68-72页
        5.3.2 “非线性迁移”噪声模型的距离测量验证第72-74页
    5.4 假设分析滤波器算法框架第74-78页
        5.4.1 假设分析滤波器算法第74-76页
        5.4.2 假设分析滤波器的分析和收敛性证明第76-78页
    5.5 假设分析滤波器跟踪实验第78-98页
        5.5.1 假设分析滤波器的纯方位角跟踪实验第78-85页
        5.5.2 假设分析滤波器的纯距离跟踪实验第85-91页
        5.5.3 假设分析滤波器的方位角-距离混合跟踪实验第91-98页
6 全文总结和展望第98-100页
    6.1 全文总结第98-99页
    6.2 展望第99-100页
参考文献第100-108页
攻读硕士学位期间科研成果第108-110页
作者简历第110页

论文共110页,点击 下载论文
上一篇:加拿大成年监护制度研究--兼论对中国成年监护制度的启示
下一篇:内部行政责任研究