首页--工业技术论文--自动化技术、计算机技术论文--自动化技术及设备论文--机器人技术论文--机器人论文

基于深度学习的机器人视觉受污后的应急规划

摘要第5-6页
Abstract第6-7页
第1章 绪论第11-20页
    1.1 课题来源和背景第11页
    1.2 移动机器人视觉感知应用第11-14页
    1.3 图像前景提取概述第14-15页
    1.4 移动机器人应急规划研究现状第15-17页
    1.5 案例推理CBR概述第17页
    1.6 深度学习目标检测第17-18页
    1.7 本文的主要研究内容第18-20页
第2章 仿生视觉系统第20-31页
    2.1 引言第20页
    2.2 总体方案设计第20-22页
    2.3 机器人云台及硬件选取第22-24页
    2.4 移动机器人视觉系统建立第24-30页
        2.4.1 仿变色龙视觉系统构建第24-27页
        2.4.2 仿变色龙视觉系统坐标系建立第27-30页
    2.5 本章小结第30-31页
第3章 污染物检测及处理第31-46页
    3.1 引言第31页
    3.2 污染物检测第31-35页
        3.2.1 隔帧差分算法第31-32页
        3.2.2 ViBe检测算法第32-34页
        3.2.3 算法以及参数的初步确定第34-35页
    3.3 图像分析第35-38页
        3.3.1 图像集合的表示第35-36页
        3.3.2 形态学的基本运算第36-38页
    3.4 污染物信息提取第38-41页
        3.4.1 连通区域的处理第38-39页
        3.4.2 污染物的特征提取第39-41页
    3.5 小污染图像后处理第41-43页
    3.6 污染区域分布第43-45页
    3.7 本章小结第45-46页
第4章 机器人视觉受污后的应急规划第46-66页
    4.1 引言第46-47页
    4.2 深度学习目标检测第47-53页
        4.2.1 深度学习框架选择第47-48页
        4.2.2 基于Faster R-cnn目标检测第48-51页
        4.2.3 制作数据并训练第51-53页
    4.3 基于CBR的摄像头受污案例库建立第53-57页
    4.4 视觉受污视场拼接应急规划第57-60页
        4.4.1 单目受污状态下的视场拼接搜索第57-58页
        4.4.2 双目受污状态下的视场拼接搜索第58-59页
        4.4.3 单目受污且通透度低于阈值的视场拼接搜索第59-60页
    4.5 目标遮挡优化及其目标追踪第60-64页
        4.5.1 遮挡现象第61-62页
        4.5.2 摄像机动作优化第62-64页
    4.6 本章小结第64-66页
第5章 实验研究第66-85页
    5.1 引言第66页
    5.2 污染物检测实验第66-69页
        5.2.1 水平硬质地面第66-67页
        5.2.2 崎岖地面第67-69页
    5.3 深度学习目标检测算法实验第69-70页
    5.4 机器人视觉受污后的应急规划第70-82页
        5.4.1 平坦硬质地面上视觉受污的应急规划第70-76页
        5.4.2 崎岖沙地上视觉受污的应急规划第76-82页
    5.5 摄像头灰尘清洁实验第82-84页
    5.6 本章小结第84-85页
结论第85-87页
参考文献第87-95页
攻读硕士学位期间发表的论文和取得的科研成果第95-97页
致谢第97页

论文共97页,点击 下载论文
上一篇:基于深度学习的金刚石锯片裂纹识别分类方法研究
下一篇:液压四足机器人对角步态联合仿真及关节稳定性控制研究