摘要 | 第4-5页 |
Abstract | 第5页 |
第一章 绪论 | 第11-22页 |
1.1 引言 | 第11-17页 |
1.1.1 人机交互 | 第11页 |
1.1.2 眼动交互 | 第11-13页 |
1.1.3 情境认知 | 第13-14页 |
1.1.4 情感计算 | 第14-15页 |
1.1.5 维度情感理论 | 第15-16页 |
1.1.6 机器学习 | 第16-17页 |
1.2 课题背景与研究重点 | 第17-18页 |
1.3 论文的方法概述 | 第18-19页 |
1.4 论文的组织结构 | 第19-22页 |
第二章 头眼部运动特征获取与运动类型分类 | 第22-28页 |
2.1 眼部运动类型分类方法 | 第22-25页 |
2.1.1 眼部运动特征定义与抽取 | 第22-23页 |
2.1.2 眼部运动类型定义与分类 | 第23-25页 |
2.2 头部运动姿势分类方法 | 第25-27页 |
2.2.1 头部运动特征定义与抽取 | 第25-26页 |
2.2.2 头部运动姿势定义与分类 | 第26-27页 |
2.3 本章小结 | 第27-28页 |
第三章 眼部关注模型与眼部偏好模型 | 第28-35页 |
3.1 物体运动状态与物体表征状态 | 第28-29页 |
3.2 机器学习算法分析 | 第29-30页 |
3.3 模型构建 | 第30-34页 |
3.3.1 眼部关注模型与眼部偏好模型 | 第30页 |
3.3.2 模型算法 | 第30-34页 |
3.3.2.1 标签传播算法 | 第30-31页 |
3.3.2.2 SVM算法 | 第31-32页 |
3.3.2.3 决策树算法 | 第32-34页 |
3.4 本章小结 | 第34-35页 |
第四章 分类器训练与模型构建实验 | 第35-44页 |
4.1 眼部运动类型与头部运动姿势分类器训练 | 第35-39页 |
4.1.1 实验环境描述 | 第35页 |
4.1.2 眼部运动类型分类器构建 | 第35-38页 |
4.1.3 头部运动姿势分类器构建 | 第38-39页 |
4.2 眼部关注模型与眼部偏好模型训练 | 第39-42页 |
4.2.1 实验环境描述 | 第40-41页 |
4.2.2 基于物体运动状态的眼部关注模型训练 | 第41-42页 |
4.2.3 基于物体表征状态的眼部偏好模型训练 | 第42页 |
4.3 本章小结 | 第42-44页 |
第五章 基于实时头眼动交互的用户行为预测与情感计算 | 第44-50页 |
5.1 基于实时眼动交互的用户行为预测方法 | 第44-46页 |
5.2 基于实时眼动交互的用户情感计算方法 | 第46-49页 |
5.2.1 PAD情感模型描述 | 第46-47页 |
5.2.2 头眼运动状态与PAD情感模型映射计算 | 第47-49页 |
5.3 本章小结 | 第49-50页 |
第六章 头眼动交互用户行为预测与情感计算测试 | 第50-61页 |
6.1 基于眼动专注的多人会议屏幕共享 | 第50-52页 |
6.2 基于射击类游戏的光标辅助瞄准 | 第52-53页 |
6.3 陪护机器人——释放双手的眼动交互 | 第53-55页 |
6.4 基于非语言情感计算的社交机器人 | 第55-58页 |
6.5 本章小结 | 第58-61页 |
第七章 总结与展望 | 第61-62页 |
参考文献 | 第62-65页 |
课题成果 | 第65-66页 |
致谢 | 第66页 |