摘要 | 第7-9页 |
abstract | 第9-10页 |
第一章 绪论 | 第11-17页 |
1.1 研究背景与意义 | 第11-13页 |
1.2 研究现状 | 第13-15页 |
1.2.1 用户意图捕获 | 第13-14页 |
1.2.2 隐式交互 | 第14-15页 |
1.3 本文主要研究内容 | 第15-16页 |
1.4 本文的组织结构 | 第16-17页 |
第二章 基于视觉的虚拟装配界面手势交互关键技术 | 第17-23页 |
2.1 基于Kinect的手势分割 | 第17-20页 |
2.2 基于手势主方向和类-Hausdorff距离的手势识别 | 第20-22页 |
2.3 基于三维人手模型的手势跟踪 | 第22页 |
2.4 三维场景物体建模 | 第22-23页 |
第三章 虚拟装配交互界面用户意图感知的专家系统 | 第23-39页 |
3.1 虚拟装配交互界面用户意图感知的专家系统结构 | 第23-24页 |
3.2 知识获取及表示 | 第24-30页 |
3.2.1 用户操作意图 | 第24-25页 |
3.2.2 上下文知识获取 | 第25-27页 |
3.2.3 场景知识模型表示 | 第27-28页 |
3.2.4 用户知识模型表示 | 第28-30页 |
3.3 知识库构造 | 第30-33页 |
3.4 推理机 | 第33-34页 |
3.5 虚拟装配用户意图智能感知算法 | 第34-39页 |
3.5.1 算法流程 | 第34-36页 |
3.5.2 用户意图捕获 | 第36-39页 |
第四章 虚拟装配界面的隐式交互专家系统 | 第39-51页 |
4.1 隐式交互知识表示 | 第39-41页 |
4.2 隐式交互知识库构造 | 第41-42页 |
4.3 基于场景任务的用户隐式意图感知算法 | 第42-51页 |
4.3.1 场景物体感知拉近算法 | 第44-45页 |
4.3.2 场景物体旋转算法 | 第45-47页 |
4.3.3 隐式交互用户意图捕获 | 第47-51页 |
第五章 实验结果与结果分析 | 第51-61页 |
5.1 实验条件 | 第51-53页 |
5.2 人手向物体位置平移实验 | 第53-55页 |
5.2.1 实验设计 | 第53页 |
5.2.2 实验结果及分析 | 第53-55页 |
5.3 抓取物体和调整物体位姿实验 | 第55-57页 |
5.3.1 实验设计 | 第55页 |
5.3.2 实验结果及分析 | 第55-57页 |
5.4 总装配任务实验 | 第57-61页 |
5.4.1 实验设计 | 第57-58页 |
5.4.2 实验结果及分析 | 第58-61页 |
第六章 总结与展望 | 第61-63页 |
6.1 全文总结 | 第61-62页 |
6.2 下一步工作计划 | 第62-63页 |
参考文献 | 第63-67页 |
致谢 | 第67-68页 |
附录 | 第68-69页 |