首页--工业技术论文--自动化技术、计算机技术论文--自动化技术及设备论文--机器人技术论文--机器人论文--工业机器人论文

基于深度学习的工业机器人视觉分拣方法研究

中文摘要第4-6页
abstract第6-7页
第一章 绪论第11-21页
    1.1 研究背景与意义第11-14页
    1.2 机器人视觉分拣技术研究现状第14-18页
    1.3 深度学习技术研究现状第18-19页
    1.4 本课题主要研究内容第19-21页
第二章 工业机器人视觉分拣系统组成第21-31页
    2.1 工业机器人视觉分拣系统总体方案设计第21-22页
    2.2 系统硬件选型原则第22-28页
        2.2.1 工业相机的选择第22-23页
        2.2.2 光学镜头的选择第23-24页
        2.2.3 相机安装方式第24-25页
        2.2.4 光源选型第25页
        2.2.5 光源照射方式的选择第25-26页
        2.2.6 六轴关节机器人第26-27页
        2.2.7 计算机第27-28页
    2.3 机器人末端执行器的设计第28-29页
        2.3.1 机械夹爪设计第28页
        2.3.2 末端执行器系统设计第28页
        2.3.3 末端执行器系统的工作方式第28-29页
    2.4 系统组件间通信第29-30页
    2.5 本章小结第30-31页
第三章 相机标定第31-45页
    3.1 相机模型第31-34页
        3.1.1 针孔模型第31-33页
        3.1.2 相机非线性模型第33-34页
    3.2 相机标定方法研究第34-39页
        3.2.1 直接线性法第34-35页
        3.2.2 张正友法第35-39页
    3.3 视觉系统标定实验第39-44页
        3.3.1 线性标定及数据分析第39-42页
        3.3.2 非线性标定及数据分析第42-44页
    3.4 本章小结第44-45页
第四章 基于深度学习的工件检测和定位方法第45-68页
    4.1 卷积神经网络结构第45-49页
        4.1.1 卷积层第45-46页
        4.1.2 激活函数第46-48页
        4.1.3 池化层第48-49页
        4.1.4 全连接层第49页
    4.2 卷积神经网络计算过程第49-52页
    4.3 卷积神经网络模型的设计第52-54页
        4.3.1 激活函数的设计第52-53页
        4.3.2 空间金字塔池化第53-54页
    4.4 分类器设计第54页
    4.5 模型框架设计第54-58页
    4.6 工件检测和定位系统具体实现过程第58-63页
        4.6.1 系统实现环境第58-59页
        4.6.2 训练样本第59-60页
        4.6.3 模型搭建第60-61页
        4.6.4 卷积神经网络模型训练步骤第61-63页
    4.7 工件检测和定位实验第63-67页
        4.7.1 PDN模型检测工件实验第63-64页
        4.7.2 PDN模型实验基本结论第64页
        4.7.3 模型性能测试第64-65页
        4.7.4 与SVM分类器对比第65页
        4.7.5 KPPN模型定位关键点实验第65-66页
        4.7.6 KPPN模型测试结论第66-67页
    4.8 本章小结第67-68页
第五章 基于深度学习的工业机器人视觉分拣实验第68-73页
    5.1 分拣系统简介及工作流程第68-69页
    5.2 人机交互软件设计第69-70页
    5.3 工件位姿估计实验第70-71页
    5.4 机器人分拣实验及结果分析第71-72页
    5.5 本章小结第72-73页
第六章 总结与展望第73-75页
    6.1 本文总结与创新点第73页
    6.2 研究工作展望第73-75页
参考文献第75-80页
攻读硕士学位期间的科研成果第80-81页
致谢第81-82页

论文共82页,点击 下载论文
上一篇:无线传感器网络多层次路由及密钥管理研究
下一篇:聚乙烯管道电熔接头超声检测缺陷自动识别系统研发