首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

未知环境中智能机器人的视觉导航技术研究

摘要第4-6页
ABSTRACT第6-8页
第一章 绪论第12-28页
    1.1 研究目的与意义第12-13页
    1.2 机器人传感器概述第13-18页
        1.2.1 视觉传感器第14-15页
        1.2.2 触觉传感器第15-16页
        1.2.3 接近觉传感器第16页
        1.2.4 听觉传感器第16-17页
        1.2.5 味觉和嗅觉传感器第17页
        1.2.6 多传感器融合技术第17-18页
    1.3 机器人视觉导航技术分类第18-20页
    1.4 智能机器人视觉导航研究现状与发展趋势第20-24页
        1.4.1 国外研究现状第20-22页
        1.4.2 国内研究现状第22-23页
        1.4.3 现存问题及未来发展趋势第23-24页
    1.5 课题来源与主要研究内容第24-25页
        1.5.1 课题来源第24页
        1.5.2 主要研究内容第24-25页
    1.6 论文结构安排第25页
    参考文献第25-28页
第二章 智能机器人视觉导航关键技术第28-43页
    2.1 摄像机模型与标定技术第28-31页
        2.1.1 摄像机模型第28-29页
        2.1.2 摄像机标定方法第29-31页
    2.2 双目立体视觉测量技术第31-33页
        2.2.1 立体视觉校正第31-32页
        2.2.2 三维重建第32-33页
    2.3 双目立体视觉匹配技术第33-35页
        2.3.1 立体匹配基元第33页
        2.3.2 相似性度量函数第33-34页
        2.3.3 立体匹配策略第34页
        2.3.4 约束准则第34-35页
    2.4 基于GPU的高性能计算技术第35-36页
        2.4.1 GPU硬件架构第35页
        2.4.2 CUDA并行编程技术第35-36页
    2.5 机器人手眼标定技术第36-38页
        2.5.1 四元数法原理第36-37页
        2.5.2 基于光学定位跟踪的手眼标定方法第37-38页
    2.6 目标检测技术第38-40页
    2.7 目标跟踪技术第40页
    2.8 本章小结第40页
    参考文献第40-43页
第三章 基于图像局部特征相似性的密集匹配第43-77页
    3.1 基于自适应权值滤波的密集匹配第43-49页
        3.1.1 基本问题与研究思路第43-45页
        3.1.2 匹配代价初始化第45页
        3.1.3 匹配代价自适应叠加第45-48页
        3.1.4 密集视差图的生成第48-49页
        3.1.5 密集视差图细化处理第49页
    3.2 基于自适应窗口的密集匹配第49-57页
        3.2.1 基本问题与研究思路第49-51页
        3.2.2 激光光斑投射器第51页
        3.2.3 图像纹理质量评价依据第51-56页
        3.2.4 自适应窗口匹配算法第56-57页
    3.3 基于GPU的高性能密集匹配第57-59页
    3.4 实验结果与分析第59-74页
        3.4.1 基于自适应权值滤波的密集匹配实验第59-68页
        3.4.2 基于自适应窗口的密集匹配实验第68-74页
    3.5 本章小结第74-75页
    参考文献第75-77页
第四章 基于广义Hough变换与随机蕨分类器的目标检测研究第77-120页
    4.1 引言第77-79页
        4.1.1 目标检测研究概述第77-78页
        4.1.2 研究思路第78-79页
    4.2 图像目标的检测第79-98页
        4.2.1 图像局部特征提取第79-86页
        4.2.2 分类器设计第86-89页
        4.2.3 Hough变换机制第89-91页
        4.2.4 基于广义Hough变换与RFC结合的目标检测算法第91-98页
    4.3 RGB-D图像目标的检测第98-104页
        4.3.1 3D信息获取第98-99页
        4.3.2 3D信息局部特征提取第99-102页
        4.3.3 基于RGB-D图像的目标检测算法第102-104页
    4.4 实验结果与分析第104-115页
        4.4.1 图像目标的检测实验第104-109页
        4.4.2 IHRF参数设置对于目标检测性能的影响第109-112页
        4.4.3 基于RGB-D图像的目标检测实验第112-115页
    4.5 本章小结第115-116页
    参考文献第116-120页
第五章 基于在线学习检测机制的目标跟踪研究第120-147页
    5.1 研究概述第120-122页
        5.1.1 研究背景与意义第120-121页
        5.1.2 目前相关研究进展第121-122页
        5.1.3 研究思路第122页
    5.2 基于整体区域检测的目标跟踪第122-129页
        5.2.1 多特征提取与融合第122-124页
        5.2.2 多目标级联检测器第124-126页
        5.2.3 基于光流法的目标跟踪器第126-127页
        5.2.4 基于整体区域检测与光流法的多目标跟踪算法第127-129页
    5.3 基于局部区域检测与分割的目标跟踪第129-133页
        5.3.1 目标检测器第130页
        5.3.2 基于空间与图像信息聚类的分割算法第130-132页
        5.3.3 基于目标局部区域检测与分割的目标跟踪算法第132-133页
    5.4 实验结果与分析第133-144页
        5.4.1 基于整体区域检测的单目标跟踪实验第133-136页
        5.4.2 基于整体区域检测的多目标跟踪实验第136-137页
        5.4.3 基于局部区域检测与分割的目标跟踪实验第137-144页
    5.5 本章小结第144页
    参考文献第144-147页
第六章 智能机器人视觉导航系统构建第147-163页
    6.1 视觉导航系统硬件构成第147-148页
    6.2 视觉导航系统原理与工作流程第148-149页
    6.3 系统软件主控界面及主要功能第149-151页
    6.4 智能机器人视觉导航实验平台和验证性实验第151-162页
        6.4.1 视觉导航系统标定实验第152-153页
        6.4.2 手眼标定实验第153-155页
        6.4.3 目标检测实验第155-157页
        6.4.4 目标跟踪定位实验第157页
        6.4.5 避障实验第157-160页
        6.4.6 托盘定位实验第160-162页
    6.5 本章小结第162-163页
第七章 总结与展望第163-167页
    7.1 工作总结第163-164页
    7.2 论文主要创新点第164-165页
    7.3 研究展望第165-167页
附录:缩写词说明第167-169页
致谢第169-170页
攻读学位期间发表的学术论文目录第170页

论文共170页,点击 下载论文
上一篇:Ni-Mn-Ga-Gd高温记忆合金薄膜的制备与组织结构
下一篇:TiB2P/2024Al复合材料热变形行为及摩擦磨损性能研究