首页--航空、航天论文--航空论文--各类型航空器论文--无人驾驶飞机论文

无人机双目视觉深度感知技术研究与实现

摘要第4-5页
ABSTRACT第5-6页
第一章 绪论第10-16页
    1.1 课题研究背景及意义第10-11页
    1.2 国内外发展现状第11-14页
        1.2.1 立体匹配算法研究现状第11-13页
        1.2.2 双目立体视觉在各平台的实现现状第13-14页
    1.3 论文的研究内容和结构安排第14-16页
        1.3.1 论文主要研究内容第14页
        1.3.2 论文的结构安排第14-16页
第二章 双目视觉深度感知框架第16-32页
    2.1 双目立体视觉理论第16-21页
        2.1.1 摄像机成像原理与坐标系间变换关系第16-19页
        2.1.2 相机标定第19-20页
        2.1.3 双目视觉深度感知原理第20-21页
    2.2 立体匹配原理第21-30页
        2.2.1 立体校正第22-23页
        2.2.2 匹配约束第23-24页
        2.2.3 立体匹配算法评估准则与方法第24-25页
        2.2.4 匹配基元及匹配代价函数第25-29页
        2.2.5 立体匹配的难点与挑战第29-30页
    2.3 深度感知的处理流程第30-31页
        2.3.1 预处理流程第30页
        2.3.2 实时获取深度流程第30-31页
    2.4 本章小结第31-32页
第三章 基于多尺度融合的固定窗代价聚合算法第32-43页
    3.1 引言第32-33页
    3.2 传统的固定窗代价聚合算法第33-35页
        3.2.1 盒滤波第33页
        3.2.2 积分图像第33-34页
        3.2.3 实验结果及分析第34-35页
    3.3 非局部代价聚合算法第35-37页
    3.4 多尺度代价聚合算法第37-39页
    3.5 各个聚合算法的分析对比与实验结果第39-42页
    3.6 本章小结第42-43页
第四章 多阶段误匹配检测与视差优化方法第43-58页
    4.1 引言第43-44页
    4.2 遮挡导致的误匹配第44-45页
    4.3 误匹配视差检测第45-50页
        4.3.1 左右一致性视差检测第45-46页
        4.3.2 唯一性检测第46页
        4.3.3 连通区域检测第46-47页
        4.3.4 实验结果第47-50页
    4.4 视差优化算法第50-53页
        4.4.1 最邻近有效视差填充第50-51页
        4.4.2 加权中值滤波视差优化算法第51-52页
        4.4.3 超像素分割的视差优化算法第52-53页
    4.5 实验结果与分析对比第53-57页
    4.6 本章小结第57-58页
第五章 嵌入式开发环境与算法并行加速优化第58-71页
    5.1 引言第58页
    5.2 嵌入式开发平台介绍第58-61页
        5.2.1 硬件开发部分第58-60页
        5.2.2 软件开发环境第60-61页
    5.3 CUDA并行处理框架第61-65页
        5.3.1 执行模型第61-62页
        5.3.2 内存模型第62-64页
        5.3.3 性能优化第64-65页
    5.4 立体匹配算法并行加速优化研究第65-68页
        5.4.1 初始代价计算优化第65-66页
        5.4.2 代价聚合优化第66页
        5.4.3 多尺度代价卷融合优化第66-67页
        5.4.4 视差选取及唯一性检测优化第67-68页
    5.5 深度恢复实验与结果分析第68-70页
    5.6 本章小结第70-71页
第六章 结论与展望第71-73页
    6.1 本文工作总结第71-72页
    6.2 未来研究工作展望第72-73页
致谢第73-74页
参考文献第74-78页

论文共78页,点击 下载论文
上一篇:面向应急场合的无人机集群技术研究
下一篇:基于征兆分析的飞控地面故障诊断系统研究与实现