首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

面向无人车的多目融合感知研究

摘要第5-6页
Abstract第6-7页
第1章 绪论第13-19页
    1.1 课题来源第13页
    1.2 课题研究背景和意义第13-14页
    1.3 多目融合感知的主要挑战第14页
    1.4 国内外研究现状第14-17页
        1.4.1 国外研究现状第15-16页
        1.4.2 国内研究现状第16-17页
    1.5 本文主要工作第17-18页
    1.6 本文的结构第18-19页
第2章 多目融合流程与车载摄像机标定第19-30页
    2.1 多目融合基本流程第19页
    2.2 视频帧采集与预处理第19-20页
    2.3 摄像机标定基础第20-24页
        2.3.1 参考坐标系建立第20-21页
        2.3.2 摄像机线性模型的标定第21-24页
        2.3.3 摄像机非线性模型的标定第24页
    2.4 视频帧配准技术第24-27页
        2.4.1 基于变换域的配准方法第25页
        2.4.2 基于灰度信息的配准方法第25-26页
        2.4.3 基于特征的配准方法第26-27页
    2.5 视频帧融合技术第27-29页
        2.5.1 平均值融合方法第27-28页
        2.5.2 梯度域融合方法第28页
        2.5.3 多频带融合方法第28-29页
    2.6 小结第29-30页
第3章 基于KAZE非线性尺度空间的多目融合算法第30-39页
    3.1 KAZE特征提取第30-33页
        3.1.1 非线性尺度空间的构建第30-31页
        3.1.2 KAZE特征点检测第31-33页
    3.2 Gauge-SURF特征向量描述第33-36页
        3.2.1 特征点主方向确定第33页
        3.2.2 构造特征描述向量第33-36页
    3.3 特征匹配第36-38页
        3.3.1 FLANN快速近似近邻搜索第36页
        3.3.2 RANSAC精确匹配第36-38页
    3.4 帽子函数加权平均融合第38页
    3.5 小结第38-39页
第4章 车载环境下的双目标定和距离感知第39-51页
    4.1 车载多目摄像机定位和布局第39-43页
        4.1.1 车载摄像机的定位第39-41页
        4.1.2 车载摄像机的布局第41-43页
    4.2 移动车载环境下的距离感知第43-45页
    4.3 车载双目摄像机标定第45-48页
    4.4 双目校正第48-50页
    4.5 小结第50-51页
第5章 实验结果与分析第51-67页
    5.1 双目标定和距离感知实验第51-56页
        5.1.1 车载双目摄像机标定及分析第51-54页
        5.1.2 双目测距实验及分析第54-56页
    5.2 多目融合实验第56-65页
        5.2.1 KAZE特征点提取与分析第56-59页
        5.2.2 KAZE特征点匹配与分析第59-63页
        5.2.3 视频帧融合实验第63-65页
    5.3 小结第65-67页
结论第67-69页
参考文献第69-73页
致谢第73-74页
附录A 攻读学位期间所发表的学术论文第74-75页
附录B 攻读硕士期间参与的项目列表第75页

论文共75页,点击 下载论文
上一篇:早开堇菜的组织培养及再生研究
下一篇:利用ABCG15基因构建的水稻轮回群体的遗传多样性分析