动态场景下工件目标高精度分割方法研究
摘要 | 第5-7页 |
Abstract | 第7-8页 |
第一章 绪论 | 第12-20页 |
1.1 课题研究背景与意义 | 第12-13页 |
1.1.1 研究背景 | 第12页 |
1.1.2 研究意义 | 第12-13页 |
1.2 国内外研究现状 | 第13-17页 |
1.3 本文主要研究工作 | 第17页 |
1.4 论文组织结构 | 第17-20页 |
第二章 工业机器人视觉检测平台 | 第20-32页 |
2.1 工业机器人视觉检测平台硬件 | 第20-24页 |
2.1.1 工业机器人 | 第21页 |
2.1.2 工业相机 | 第21-23页 |
2.1.3 图像采集卡 | 第23-24页 |
2.2 工业机器人视觉检测平台现有分割方法 | 第24-30页 |
2.2.1 基于全局阈值法的运动目标分割 | 第25-27页 |
2.2.2 基于自适应阈值法的运动目标分割 | 第27-30页 |
2.3 本章小结 | 第30-32页 |
第三章 非限制场景下运动目标快速分割方法 | 第32-44页 |
3.1 非限制场景下运动目标快速分割方法 | 第32-39页 |
3.1.1 计算图像序列的光流场 | 第33-34页 |
3.1.2 计算前景目标运动边界 | 第34-35页 |
3.1.3 计算目标内外映射 | 第35-37页 |
3.1.4 建立表观模型 | 第37-38页 |
3.1.5 获取位置先验 | 第38-39页 |
3.1.6 获取分割结果 | 第39页 |
3.2 实验结果及比较 | 第39-42页 |
3.2.1 视频数据 | 第39-40页 |
3.2.2 实验结果 | 第40-42页 |
3.3 本章小结 | 第42-44页 |
第四章 改进的非限制场景下运动目标快速分割方法 | 第44-56页 |
4.1 改进的非限制场景运动目标快速分割方法 | 第44-50页 |
4.1.1 单高斯模型和混合高斯模型 | 第45-49页 |
4.1.2 背景图像的采集 | 第49页 |
4.1.3 背景模型个数的选择 | 第49-50页 |
4.1.4 背景模型的训练 | 第50页 |
4.2 实验结果及分析 | 第50-54页 |
4.2.1 实验结果 | 第50-51页 |
4.2.2 评价方法 | 第51-54页 |
4.3 本章小结 | 第54-56页 |
第五章 结合全卷积神经网络的运动工件目标分割 | 第56-70页 |
5.1 CNN卷积神经网络 | 第56-60页 |
5.1.1 网络结构 | 第56-58页 |
5.1.2 降低参数数目 | 第58-60页 |
5.2 FCN全卷积神经网络 | 第60-62页 |
5.2.1 全卷积神经网络的目标分类 | 第60页 |
5.2.2 上采样实现反卷积 | 第60-62页 |
5.3 基于全卷积网络的运动工件目标分割 | 第62-68页 |
5.3.1 数据集的制作 | 第62页 |
5.3.2 实验结果及分析 | 第62-68页 |
5.4 本章小结 | 第68-70页 |
第六章 总结与展望 | 第70-72页 |
6.1 总结 | 第70-71页 |
6.2 展望 | 第71-72页 |
致谢 | 第72-74页 |
参考文献 | 第74-78页 |
附录A 攻读硕士学位期间获得科研成果 | 第78-80页 |
附录B 本文实验中的参数 | 第80-84页 |
附录C 本文所用数据处理主程序 | 第84-86页 |
附录D 本文所用原图像和GT数据集 | 第86-88页 |