| 摘要 | 第3-5页 |
| abstract | 第5-6页 |
| 1 绪论 | 第9-15页 |
| 1.1 研究背景及意义 | 第9-10页 |
| 1.2 研究现状 | 第10-12页 |
| 1.3 存在主要问题 | 第12-13页 |
| 1.4 研究内容和组织结构 | 第13-15页 |
| 2 动态手语识别理论基础 | 第15-27页 |
| 2.1 基于计算机视觉的动态手语识别系统 | 第15-16页 |
| 2.2 手语分类及表达方式 | 第16-20页 |
| 2.3 建立手语数据库 | 第20-22页 |
| 2.4 手势视频预处理及特征提取方法 | 第22-25页 |
| 2.4.1 视频镜头分割 | 第22-23页 |
| 2.4.2 典型关键帧提取 | 第23-24页 |
| 2.4.3 视频特征提取 | 第24-25页 |
| 2.5 本章小结 | 第25-27页 |
| 3 基于Vibe和时空上下文的运动手势跟踪算法 | 第27-39页 |
| 3.1 时空上下文模型 | 第27-29页 |
| 3.2 时空上下文算法分析 | 第29-32页 |
| 3.3 融合Vibe的时空上下文跟踪算法 | 第32-35页 |
| 3.3.1 强干扰检测 | 第33-34页 |
| 3.3.2 手势目标修正 | 第34-35页 |
| 3.3.3 更新策略 | 第35页 |
| 3.4 实验与分析 | 第35-38页 |
| 3.5 本章小结 | 第38-39页 |
| 4 基于时空兴趣点双重特征融合的运动手势识别方法 | 第39-49页 |
| 4.1 双重特征融合的动态手势识别方法 | 第39-45页 |
| 4.1.1 Harris-Corner3D的兴趣点检测 | 第40-41页 |
| 4.1.2 时空兴趣点3D-SIFT的描述方法 | 第41-42页 |
| 4.1.3 时空兴趣点HOG3D描述方法 | 第42-43页 |
| 4.1.4 K-means的词袋模型建立 | 第43-44页 |
| 4.1.5 双特征融合动态手势识别 | 第44-45页 |
| 4.2 实验与分析 | 第45-48页 |
| 4.3 本章小结 | 第48-49页 |
| 5 总结与展望 | 第49-51页 |
| 5.1 总结 | 第49页 |
| 5.2 展望 | 第49-51页 |
| 附录 | 第51-55页 |
| 致谢 | 第55-57页 |
| 参考文献 | 第57-61页 |
| 攻读硕士期间发表的论文及成果 | 第61页 |