首页--航空、航天论文--航空论文--各类型航空器论文--无人驾驶飞机论文

基于视觉的无人机自主着陆关键技术研究

摘要第4-5页
Abstract第5-6页
第一章 绪论第9-16页
    1.1 课题研究背景及意义第9-10页
        1.1.1 研究背景第9页
        1.1.2 研究意义第9-10页
    1.2 无人机视觉导航研究现状第10-14页
        1.2.1 国内外研究现状第10-11页
        1.2.2 无人机位姿解算方法研究综述第11-14页
    1.3 存在的问题第14页
    1.4 论文主要研究内容及安排第14-16页
第二章 视觉导航基础理论第16-28页
    2.1 投影关系第17-21页
        2.1.1 参考坐标系第17-18页
        2.1.2 无人机位姿参数的定义第18-19页
        2.1.3 坐标系转换第19-21页
    2.2 摄像机标定方法第21-25页
        2.2.1 像机标定综述第21页
        2.2.2 经典像机标定法-张正友标定法第21-23页
        2.2.3 实验与分析第23-25页
    2.3 位姿的表示方法第25-27页
        2.3.1 欧拉角表示法第25-26页
        2.3.2 旋转向量表示法第26页
        2.3.3 四元数表示法第26-27页
    2.4 小结第27-28页
第三章 合作标志的识别算法第28-39页
    3.1 引言第28页
    3.2 合作目标分割与识别第28-35页
        3.2.1 合作标志设计第28-29页
        3.2.2 图像分割算法研究第29-30页
        3.2.3 一种改进的合作目标识别算法第30-35页
    3.3 图像特征提取算法分析第35-38页
        3.3.1 角点检测算法第35-36页
        3.3.2 SIFT特征提取方法第36-37页
        3.3.3 实验与分析第37-38页
    3.4 小结第38-39页
第四章 无人机位姿估计算法研究第39-66页
    4.1 引言第39-40页
    4.2 基于合作标志的位姿估计算法研究第40-55页
        4.2.1 误差函数选择第40-42页
        4.2.2 快速像机位姿估计算法第42-49页
        4.2.3 实验与分析第49-55页
    4.3 基于影像特征点的相对位姿估计第55-65页
        4.3.1 基本矩阵估计第56-57页
        4.3.2 摄像机矩阵的恢复第57-59页
        4.3.3 相对位姿解算第59页
        4.3.4 数据融合与尺度信息获取第59-60页
        4.3.5 实验及分析第60-65页
    4.4 小结第65-66页
第五章 位姿解算精度分析第66-75页
    5.1 引言第66页
    5.2 影响位姿解算精度的误差因素分析第66-72页
        5.2.1 物理因素影响分析第66-68页
        5.2.2 图像处理误差产生分析第68页
        5.2.3 实验环境误差产生分析第68页
        5.2.4 误差模型建立第68-72页
    5.3 实验与分析第72-74页
    5.4 小结第74-75页
第六章 总结与展望第75-77页
    6.1 工作总结第75页
    6.2 下一步研究第75-77页
致谢第77-78页
参考文献第78-82页
作者简历第82页

论文共82页,点击 下载论文
上一篇:基于效应关系类的粗糙规划方法研究
下一篇:有限维模李超代数(?)(n,m)的单性和导子超代数