| 摘要 | 第1-6页 |
| ABSTRACT | 第6-8页 |
| 目录 | 第8-11页 |
| 图表目录 | 第11-13页 |
| 第1章 绪论 | 第13-39页 |
| ·研究背景 | 第13-16页 |
| ·基于视觉的人机交互 | 第13-14页 |
| ·穿戴计算与穿戴视觉 | 第14-16页 |
| ·研究现状 | 第16-35页 |
| ·穿戴视觉交互 | 第16-22页 |
| ·目标建模及特征描述 | 第22-24页 |
| ·跟踪算法 | 第24-32页 |
| ·主动学习 | 第32-35页 |
| ·论文的主要内容 | 第35-37页 |
| ·论文结构 | 第37-39页 |
| 第2章 穿戴交互系统 | 第39-47页 |
| ·引言 | 第39页 |
| ·相关工作 | 第39-40页 |
| ·体系架构 | 第40-43页 |
| ·硬件配置 | 第41-42页 |
| ·软件组成 | 第42-43页 |
| ·实验平台 | 第43-45页 |
| ·系统优点 | 第45-46页 |
| ·小结 | 第46-47页 |
| 第3章 基于立体视觉的虚拟触摸板交互方法 | 第47-71页 |
| ·引言 | 第47-49页 |
| ·粒子滤波器 | 第49-53页 |
| ·贝叶斯最优估计 | 第49-50页 |
| ·粒子滤波器 | 第50-51页 |
| ·ICONDENSATION 算法 | 第51-53页 |
| ·指示手势跟踪 | 第53-60页 |
| ·手势模型 | 第54-57页 |
| ·粒子预测 | 第57-58页 |
| ·观测过程 | 第58-59页 |
| ·算法总结 | 第59-60页 |
| ·虚拟触摸板 | 第60-62页 |
| ·指尖三维定位 | 第60-61页 |
| ·触碰检测 | 第61-62页 |
| ·实验分析 | 第62-68页 |
| ·CD-PGT 算法跟踪结果 | 第62-64页 |
| ·两种跟踪方法的对比结果 | 第64-67页 |
| ·区域圈取实验 | 第67-68页 |
| ·小结 | 第68-71页 |
| 第4章 快速的自适应目标跟踪方法 | 第71-89页 |
| ·引言 | 第71-73页 |
| ·协同训练目标跟踪 | 第73-76页 |
| ·初始化 | 第73-74页 |
| ·目标定位 | 第74-75页 |
| ·分类器更新 | 第75-76页 |
| ·基于ICONDENSATION 的协同训练跟踪算法 | 第76-81页 |
| ·ICONDENSATION 算法 | 第76-77页 |
| ·粒子采样 | 第77-79页 |
| ·IC-COT 算法 | 第79-81页 |
| ·实验分析 | 第81-87页 |
| ·基于协同训练和自训练的跟踪结果 | 第81-84页 |
| ·虚假目标干扰测试 | 第84-86页 |
| ·时间复杂度 | 第86-87页 |
| ·小结 | 第87-89页 |
| 第5章 多模态的交互式视觉感知方法 | 第89-107页 |
| ·引言 | 第89-91页 |
| ·多模态标注 | 第91-94页 |
| ·视觉交互 | 第92页 |
| ·语音交互 | 第92-93页 |
| ·视听觉融合 | 第93-94页 |
| ·目标描述及识别 | 第94-99页 |
| ·特征提取 | 第94-97页 |
| ·目标识别 | 第97-99页 |
| ·交互式学习 | 第99-101页 |
| ·实验结果 | 第101-106页 |
| ·多模态标注 | 第101-102页 |
| ·交互式学习 | 第102-106页 |
| ·小结 | 第106-107页 |
| 第6章 结论及展望 | 第107-111页 |
| ·工作总结 | 第107-108页 |
| ·未来工作展望 | 第108-111页 |
| 参考文献 | 第111-125页 |
| 攻读学位期间发表论文及申请的专利 | 第125-127页 |
| 攻读学位期间参加的科研项目 | 第127-129页 |
| 致谢 | 第129页 |