首页--工业技术论文--自动化技术、计算机技术论文--自动化技术及设备论文--机器人技术论文--机器人论文

机器人光电视觉控制理论及其应用研究

摘要第5-7页
ABSTRACT第7-9页
第一章 绪论第15-32页
    1.1 研究工作的背景与意义第15-17页
    1.2 国内外研究历史与现状第17-20页
    1.3 机器人视觉控制系统的分类及结构形式第20-29页
        1.3.1 静态与动态视觉反馈控制第20-21页
        1.3.2 目标图像特征的选取与匹配第21-22页
        1.3.3 单目、双目与多目相机视觉系统第22-24页
        1.3.4 基于位置与基于图像的视觉控制系统第24-26页
        1.3.5 基于标定与基于无标定的视觉控制系统第26-29页
            1.3.5.1 相机内参数标定方法第27-28页
            1.3.5.2 相机外参数与手眼标定方法第28-29页
    1.4 本论文的主要内容与结构第29-32页
第二章 视觉机器人控制理论基础第32-42页
    2.1 齐次坐标变换第32-34页
    2.2 机器人运动学模型第34-37页
        2.2.1 连杆参数与运动学方程第34-35页
            2.2.1.1 SCARA机器人运动学模型第34-35页
        2.2.2 微分运动与雅各比矩阵第35-37页
    2.3 机器人动力学模型第37-40页
        2.3.1 机器人拉格朗日动力学第38-40页
        2.3.2 SCARA机器人动力学模型第40页
    2.4 相机小孔成像模型第40-42页
第三章 基于Phong模型的快速透视变换匹配算法第42-65页
    3.1 引言第42-44页
    3.2 透视变换匹配算法原理第44-48页
        3.2.1 抗遮挡、混乱与非线性光照变化的形状匹配算法第45-47页
            3.2.1.1 图像边缘提取算法第45-46页
            3.2.1.2 基于边缘的形状匹配算法第46-47页
        3.2.2 透视变换匹配算法第47-48页
    3.3 快速透视变换匹配算法流程说明及模块介绍第48-50页
    3.4 目标姿态预测模块原理第50-56页
        3.4.1 目标姿态计算原理与方法第50-51页
        3.4.2 目标姿态预测矩阵第51-52页
        3.4.3 光照模型原理及其建立方法第52-55页
            3.4.3.1 BRDF基本原理与Phong光照模型第52-53页
            3.4.3.2 相机辐射度模型第53-55页
            3.4.3.3 系统光照模型建立与模型参数计算的方法第55页
        3.4.4 目标倾斜角度估算方法第55-56页
    3.5 实验结果与分析第56-64页
        3.5.1 建立光照模型预测目标倾斜角度第56-59页
        3.5.2 目标倾斜角度估算结果及误差分析第59-60页
        3.5.3 使用目标姿态预测方法提高匹配算法速度的实验结果第60-64页
    3.6 本章小结第64-65页
第四章 补强片自动贴片系统高精度Eye-in-hand标定方法第65-88页
    4.1 引言第65-67页
    4.2 ASB系统多目手眼视觉模块第67-68页
    4.3 Eye-to-hand标定原理与方法第68-69页
    4.4 Eye-in-hand标定原理与方法第69-78页
        4.4.1 Eye-in-hand标定模型运动约束条件分析第69-72页
            4.4.1.1 SCARA机器人Eye-in-hand标定运动约束条件第70-71页
            4.4.1.2 ASB系统Eye-in-hand标定运动约束条件第71-72页
        4.4.2 Eye-in-hand二维标定模型第72-74页
        4.4.3 Eye-in-hand三维标定模型第74-78页
    4.5 实验结果与分析第78-86页
        4.5.1 Eye-in-hand标定模型计算误差及其分析第78-82页
            4.5.1.1 相机垂直度存在偏差时标定模型计算误差第78-81页
            4.5.1.2 相机垂直度偏差较小时标定模型计算误差第81-82页
        4.5.2 手眼标定矩阵Z方向平移分量修正结果与分析第82-86页
            4.5.2.1 标定板高度修正结果第82-85页
            4.5.2.2 吸附平台高度修正结果第85-86页
    4.6 本章小结第86-88页
第五章 补强片自动贴片系统手眼标定及误差补偿方法第88-116页
    5.1 引言第88-92页
    5.2 ASB系统标定方法第92-95页
        5.2.1 相机标定方法第92页
        5.2.2 ASB系统手眼标定方法第92-95页
            5.2.2.1 固定相机坐标系与机器人基础坐标系间的坐标转换原理第93-94页
            5.2.2.2 移动相机坐标系与机器人基础坐标系间的坐标转换原理第94-95页
    5.3 ASB系统贴装误差分析与误差补偿方法第95-102页
        5.3.1 视觉机器人微分运动模型与运动学误差第95-98页
        5.3.2 机器人运动路径计算方法第98-99页
        5.3.3 基于手眼标定误差的非完整误差模型第99-100页
        5.3.4 考虑工具运行动作误差的完整误差模型第100-102页
    5.4 实验结果第102-114页
        5.4.1 ASB系统手眼标定结果第102-104页
        5.4.2 建立ASB系统的误差模型第104-108页
        5.4.3 贴装误差补偿结果第108-114页
            5.4.3.1 基于非完整误差模型的误差补偿结果第108-110页
            5.4.3.2 基于完整误差模型的误差补偿结果第110-113页
            5.4.3.3 工具旋转中心的误差轨迹第113-114页
    5.5 本章小结第114-116页
第六章 无需图像速度测量的机器人无标定视觉伺服第116-141页
    6.1 引言第116-118页
    6.2 机器人视觉轨迹跟踪基本原理第118-126页
        6.2.1 视觉机器人运动学模型第118-122页
            6.2.1.1 视觉模块中的相机模型第118-119页
            6.2.1.2 机器人运动学模型第119-121页
            6.2.1.3 视觉机器人雅各比矩阵第121-122页
        6.2.2 机器人动力学模型与特性第122页
        6.2.3 运动学参数不确定视觉伺服第122-124页
        6.2.4 运动学与动力学参数不确定视觉伺服第124-126页
    6.3 控制器设计第126-130页
        6.3.1 控制器设计分析第126页
        6.3.2 滑模矢量设计分析第126-129页
            6.3.2.1 滑模矢量设计原理第126-127页
            6.3.2.2 无目标图像速度的滑模矢量形式第127-129页
        6.3.3 参数估计律设计分析第129-130页
    6.4 系统稳定性分析第130-135页
        6.4.1 稳定性证明相关原理第130-132页
        6.4.2 系统闭环误差方程推导第132-133页
        6.4.3 系统候选Lyapunov函数第133-134页
        6.4.4 系统稳定性证明第134-135页
    6.5 仿真结果与分析第135-140页
    6.6 本章小结第140-141页
第七章 总结与展望第141-145页
    7.1 全文总结第141-143页
    7.2 后续研究工作展望第143-145页
致谢第145-146页
参考文献第146-162页
攻读博士学位期间取得的成果第162-163页

论文共163页,点击 下载论文
上一篇:云计算资源管理关键技术研究
下一篇:云存储环境下基于属性的密文策略访问控制机制研究