首页--工业技术论文--自动化技术、计算机技术论文--自动化技术及设备论文--机器人技术论文--机器人论文

基于双目立体视觉的鸡腿菇识别与定位研究

摘要第8-10页
abstract第10-11页
第1章 绪论第15-21页
    1.1 课题的提出及研究意义第15-16页
    1.2 国内外研究现状第16-18页
        1.2.1 国外研究现状第16-17页
        1.2.2 国内研究现状第17-18页
    1.3 双目立体视觉关键技术第18-19页
    1.4 本文研究主要内容第19-20页
    1.5 本章小结第20-21页
第2章 摄像机标定第21-35页
    2.1 成像模型与坐标系建立第21-26页
        2.1.1 双目立体视觉坐标系第21-23页
        2.1.2 摄像机线性模型第23-25页
        2.1.3 摄像机非线性模型第25-26页
    2.2 摄像机标定第26-31页
        2.2.1 摄像机标定方法概述第26-27页
        2.2.2 Zhang摄像机标定方法第27页
        2.2.3 摄像机内外参数求解第27-30页
        2.2.4 摄像头畸变处理第30-31页
        2.2.5 双目立体标定第31页
    2.3 摄像机标定实验第31-33页
    2.4 本章小结第33-35页
第3章 基于双目立体视觉的鸡腿菇匹配第35-49页
    3.1 双目立体匹配分类第35-37页
        3.1.1 全局立体匹配算法第35页
        3.1.2 局部立体匹配算法第35页
        3.1.3 基于区域匹配算法第35-36页
        3.1.4 基于特征的匹配算法第36-37页
    3.2 SURF(Speeded-UpRobustFeatures)特征提取及描述第37-40页
        3.2.1 构造Hessian矩阵第37-38页
        3.2.2 构建尺度空间第38-39页
        3.2.3 特征点定位第39页
        3.2.4 特征点主方向确定第39-40页
        3.2.5 构造特征点描述子第40页
    3.3 改进SURF匹配优化算法第40-44页
        3.3.1 Haar-like特征集第41页
        3.3.2 改进的SURF描述子第41-42页
        3.3.3 向量空间余弦相似度匹配第42-43页
        3.3.4 RANSAC容错第43-44页
    3.4 实验结果与分析第44-48页
    3.5 本章小结第48-49页
第4章 鸡腿菇图像分割第49-61页
    4.1 最大类间方差法第49-50页
    4.2 GrabCut分割算法第50-53页
        4.2.1 颜色模型第51-53页
        4.2.2 能量函数最小化第53页
    4.3 改进SURF算法与Grabcut算法结合第53-56页
        4.3.1 单应性矩阵第54页
        4.3.2 确定目标区域第54-56页
    4.4 鸡腿菇图像边缘检测第56-60页
        4.4.1 Canny算子第57页
        4.4.2 Sobel算子第57-58页
        4.4.3 Laplacian算子第58页
        4.4.4 Prewitt算子第58页
        4.4.5 边缘检测算子分析第58-60页
    4.5 本章小结第60-61页
第5章 双目立体视觉的三维重建与鸡腿菇定位第61-71页
    5.1 三维测量原理第61-62页
    5.2 一般情况下的三维重建第62-65页
        5.2.1 重建模型第63页
        5.2.2 重建方法第63-65页
        5.2.3 三维重建精度分析第65页
    5.3 定位实验与分析第65-70页
    5.4 本章小结第70-71页
结论与展望第71-73页
    本文工作总结第71页
    展望第71-73页
参考文献第73-76页
致谢第76-77页
附录A 攻读学位期间所撰写及录用的学术论文第77页

论文共77页,点击 下载论文
上一篇:多金属氧酸盐及其修饰电极对酪氨酸酶的电化学传感
下一篇:引入牵引机制的果蝇优化算法及其应用研究