首页--工业技术论文--自动化技术、计算机技术论文--自动化技术及设备论文--机器人技术论文--机械手论文

基于Q-学习的机械臂避障行为学习控制器的设计及实现

中文摘要第3-4页
英文摘要第4-5页
1 绪论第8-16页
    1.1 课题研究背景与意义第8页
    1.2 国内外研究现状第8-13页
        1.2.1 强化学习简介第8-9页
        1.2.2 强化学习发展历史第9-10页
        1.2.3 强化学习在机器人中的应用第10-13页
    1.3 本文的主要工作第13页
    1.4 本文的结构第13-16页
2 机械臂避障算法及其相关理论第16-28页
    2.1 引言第16页
    2.2 机械臂避障算法发展过程第16-18页
        2.2.1 A*算法第16页
        2.2.2 人工势场法第16-17页
        2.2.3 快速扩展随机树算法第17页
        2.2.4 遗传算法和蚁群算法第17-18页
    2.3 相关技术理论第18-24页
        2.3.1 机械臂运动学模型第18-21页
        2.3.2 机械臂轨迹规划第21-22页
        2.3.3 机械臂动力学模型第22-23页
        2.3.4 机械臂闭环控制第23-24页
    2.4 基于卡尔曼滤波的机械臂运动控制第24-26页
        2.4.1 卡尔曼滤波算法第24-25页
        2.4.2 卡尔曼滤波在机械臂运动控制中的实现第25-26页
    2.5 本章小结第26-28页
3 强化学习理论及算法第28-38页
    3.1 引言第28页
    3.2 强化学习原理与结构第28-29页
    3.3 强化学习的组成要素第29-30页
        3.3.1 策略第29页
        3.3.2 奖励函数第29页
        3.3.3 价值函数第29-30页
        3.3.4 环境模型第30页
    3.4 Q-学习算法第30-34页
        3.4.1 马尔科夫决策过程(MDP)第30-31页
        3.4.2 Q-学习算法基本原理第31-34页
    3.5 Q-学习应用案例第34-36页
    3.6 本章小结第36-38页
4 Q-学习在机械臂避障行为中的应用第38-48页
    4.1 引言第38页
    4.2 机械臂避障系统框架第38-41页
    4.3 机械臂状态获取及动作执行过程第41-43页
        4.3.1 机械臂状态的获取第41页
        4.3.2 机械臂动作执行过程第41-43页
    4.4 动作选择策略第43-44页
    4.5 奖励函数的设计第44-45页
    4.6 算法流程第45-47页
    4.7 本章小结第47-48页
5 实验过程与结果分析第48-66页
    5.1 引言第48页
    5.2 机械臂避障轨迹对比实验第48-57页
        5.2.1 实验场景一第48-53页
        5.2.2 实验场景二第53-57页
    5.3 机械臂运动控制实验第57-60页
    5.4 学习控制器在DobotMagician上的实现第60-65页
        5.4.1 实验平台介绍第60-61页
        5.4.2 实验过程第61-65页
    5.5 总结第65-66页
6 结论与展望第66-68页
    6.1 结论第66页
    6.2 展望第66-68页
致谢第68-70页
参考文献第70-74页
附录第74页

论文共74页,点击 下载论文
上一篇:基于深度神经网络的异常声音事件检测
下一篇:渐开线RV减速器设计及动态传动误差分析