首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

基于卷积神经网络的双目视觉物体识别与定位研究

摘要第6-7页
abstract第7-8页
第1章 绪论第11-19页
    1.1 课题研究的背景及意义第11-13页
    1.2 国内外研究现状第13-16页
        1.2.1 物体识别算法的研究现状第13-14页
        1.2.2 双目立体视觉研究现状第14-16页
        1.2.3 物体识别与定位研究现状第16页
    1.3 本文研究内容及章节安排第16-19页
第2章 物体识别与定位基础理论第19-37页
    2.1 双目视觉基础原理第19-25页
        2.1.1 相机参考坐标系介绍第19-20页
        2.1.2 各个坐标系间的关系第20-22页
        2.1.3 相机畸变模型第22-23页
        2.1.4 双目视觉成像模型第23-25页
    2.2 卷积神经网络基础理论第25-32页
        2.2.1 卷积层第26-28页
        2.2.2 池化层第28-29页
        2.2.3 全连接层第29页
        2.2.4 输出层第29-30页
        2.2.5 反向传播和梯度下降第30-32页
    2.3 图像特征点匹配算法第32-36页
        2.3.1 图像特征点检测算法第32-34页
        2.3.2 图像特征点描述算法第34-36页
    2.4 本章小结第36-37页
第3章 基于卷积神经网络物体识别第37-51页
    3.1 基于YOLO卷积神经网络模型的物体识别算法第37-41页
        3.1.1 YOLO卷积神经网络模型第37-39页
        3.1.2 YOLO卷积神经网络RPN算法第39-40页
        3.1.3 YOLO卷积神经网络损失函数第40-41页
    3.2 基于SSD卷积神经网络模型的物体识别算法第41-45页
        3.2.1 SSD卷积神经网络模型第41-42页
        3.2.2 SSD卷积神经网络RPN算法第42-43页
        3.2.3 SSD卷积神经网络NMS算法第43-44页
        3.2.4 SSD卷积神经网络损失函数第44-45页
    3.3 物体识别测试效果及分析第45-49页
        3.3.1 SDD和YOLO网络模型训练第45-47页
        3.3.2 物体识别评价标准第47页
        3.3.3 物体识别性能分析第47-49页
    3.4 本章小节第49-51页
第4章 基于双目图像特征点匹配算法第51-65页
    4.1 基于双目图像边缘特征点匹配算法第51-57页
        4.1.1 降采样Canny边缘检测算法第51-55页
        4.1.2 改进SURF特征点描述算法第55-56页
        4.1.3 特征点匹配策略第56-57页
    4.2 基于双目图像多特征点融合匹配算法第57-61页
        4.2.1 基于多特征点融合检测算法第57-59页
        4.2.2 BRIEF描述子算法第59-60页
        4.2.3 特征点匹配策略第60-61页
    4.3 双目图像特征点匹配性能分析第61-64页
        4.3.1 基于边缘点特征匹配算法实验测试及分析第61-63页
        4.3.2 基于多特征点融合匹配算法测试效果及分析第63-64页
    4.4 本章小结第64-65页
第5章 物体识别与定位实现与结果分析第65-77页
    5.1 双目视觉系统硬件平台搭建第65-66页
    5.2 物体识别与定位软件实现第66-67页
    5.3 物体识别与定位综合实现第67-75页
        5.3.1 双目相机立体标定第67-71页
        5.3.2 物体识别与定位性能分析结果第71-75页
    5.4 本章小结第75-77页
结论第77-79页
参考文献第79-85页
攻读硕士学位期间发表的论文和取得的科研成果第85-87页
致谢第87页

论文共87页,点击 下载论文
上一篇:超空泡航行体运动控制中的空泡形态估计研究
下一篇:基于CNN-RNN的视频事件分类