致谢 | 第4-5页 |
摘要 | 第5-7页 |
Abstract | 第7-8页 |
1 引言 | 第15-24页 |
1.1 研究背景及意义 | 第15-17页 |
1.2 研究目标 | 第17-18页 |
1.3 研究内容 | 第18-20页 |
1.4 关键问题与创新点 | 第20-21页 |
1.5 论文的内容组织结构 | 第21-24页 |
2 文献综述 | 第24-35页 |
2.1 自然人机交互 | 第24-25页 |
2.2 机器学习技术 | 第25-29页 |
2.3 人体建模技术 | 第29-30页 |
2.4 动作识别技术 | 第30-33页 |
2.5 集成学习模型 | 第33-34页 |
2.6 本章小结 | 第34-35页 |
3 面向眼部与四肢交互动作识别的混合集成学习模型 | 第35-68页 |
3.1 相关工作 | 第35-38页 |
3.1.1 误差反向传播算法模型 | 第35-36页 |
3.1.2 支持向量机算法模型 | 第36-37页 |
3.1.3 极限学习机算法模型 | 第37-38页 |
3.2 面向交互动作识别的混合集成学习模型 | 第38-57页 |
3.2.1 极限学习机模型 | 第39-43页 |
3.2.2 增量型极限学习机模型 | 第43-46页 |
3.2.3 随机增量型混合学习机模型 | 第46-52页 |
3.2.4 混合集成学习模型 | 第52-57页 |
3.3 实验对照 | 第57-67页 |
3.3.1 不同学习算法学习效果对比 | 第58-61页 |
3.3.2 不同隐含层节点数目对比 | 第61-65页 |
3.3.3 不同类型数据混合学习对比 | 第65-67页 |
3.4 本章小结 | 第67-68页 |
4 眼部二维交互动作的建模与识别 | 第68-84页 |
4.1 相关工作 | 第68-70页 |
4.1.1 基于生理指标的人眼动作识别技术 | 第68-69页 |
4.1.2 基于图像技术的人眼动作识别技术 | 第69-70页 |
4.2 基于混合集成学习模型的无标定人眼动作建模与识别 | 第70-77页 |
4.2.1 眼部图像拓扑运算预处理 | 第71-73页 |
4.2.2 基于Haar特征的人体眼球检测 | 第73-76页 |
4.2.3 基于混合集成学习的人眼动作识别 | 第76-77页 |
4.3 实验对照 | 第77-83页 |
4.3.1 不同光照条件下眼部动作识别效果对比 | 第77-80页 |
4.3.2 不同遮挡条件下眼部动作识别效果对比 | 第80-82页 |
4.3.3 不同眼部动作识别算法实时性对比 | 第82-83页 |
4.4 本章小结 | 第83-84页 |
5 四肢三维交互动作的建模与识别 | 第84-104页 |
5.1 相关工作 | 第84-87页 |
5.1.1 四肢动作轨迹表征技术 | 第85-86页 |
5.1.2 四肢动作特征提取技术 | 第86-87页 |
5.2 基于混合集成学习模型的四肢动作建模与识别 | 第87-93页 |
5.2.1 基于深度数据的三维四肢动作建模 | 第87-89页 |
5.2.2 基于三维Hu不变矩的四肢动作表征 | 第89-92页 |
5.2.3 基于混合集成学习的四肢动作学习与识别 | 第92-93页 |
5.3 实验对照 | 第93-103页 |
5.3.1 不同四肢动作建模算法对比 | 第99-100页 |
5.3.2 不同四肢动作特征提取算法对比 | 第100-101页 |
5.3.3 不同动作识别算法对比 | 第101-103页 |
5.4 本章小结 | 第103-104页 |
6 基于眼部与四肢交互动作识别的交通信息展示系统 | 第104-127页 |
6.1 相关工作 | 第104-105页 |
6.2 交通信息体感交互展示系统 | 第105-115页 |
6.2.1 基于自然交互动作的注意力选择机制 | 第106-107页 |
6.2.2 眼部与四肢交互动作的综合建模与识别 | 第107-110页 |
6.2.3 交通信息展示系统总体结构 | 第110-111页 |
6.2.4 交通信息展示系统原形实现 | 第111-115页 |
6.3 仿真模拟实验 | 第115-126页 |
6.3.1 学习网络模型调优 | 第118-124页 |
6.3.2 动作识别方法对比 | 第124-126页 |
6.4 本章小结 | 第126-127页 |
7 总结与展望 | 第127-129页 |
参考文献 | 第129-139页 |
作者简历及在学研究成果 | 第139-143页 |
学位论文数据集 | 第143页 |