基于情感计算的重度瘫痪患者人机需求交互研究
摘要 | 第8-10页 |
abstract | 第10-11页 |
第一章 前言 | 第12-19页 |
1.1 选题背景与意义 | 第12-14页 |
1.2 国内外研究现状 | 第14-16页 |
1.3 本文工作 | 第16-17页 |
1.4 本文组织结构 | 第17-19页 |
第二章 重度瘫痪患者交互方式设计 | 第19-27页 |
2.1 交互需求获取 | 第19页 |
2.2 层次需求模型 | 第19-22页 |
2.2.1“基本-高级”需求 | 第19-20页 |
2.2.2“主观-客观”需求 | 第20-21页 |
2.2.3 层次需求模型 | 第21-22页 |
2.3 交互方式与界面设计 | 第22-26页 |
2.3.1 模拟鼠标方式 | 第22-25页 |
2.3.2 动作需求绑定方式 | 第25-26页 |
2.4 本章小结 | 第26-27页 |
第三章 头部动作识别算法研究与应用 | 第27-36页 |
3.1 研究现状 | 第27-28页 |
3.2 人脸与动作数据集 | 第28-30页 |
3.3 人脸检测与特征点定位算法研究 | 第30-32页 |
3.3.1 人脸检测与面部特征点定位开源库 | 第30-31页 |
3.3.2 实验对比与结论 | 第31-32页 |
3.4 区域化的头部动作识别 | 第32-35页 |
3.4.1 算法思路 | 第32-34页 |
3.4.2 实验对比与结论 | 第34-35页 |
3.5 本章小结 | 第35-36页 |
第四章 面部动作识别算法研究与实现 | 第36-48页 |
4.1 研究现状 | 第36-37页 |
4.2 眼睛与嘴部图像分割 | 第37-38页 |
4.3 基于灰度曲面崎岖度的眼睛动作识别 | 第38-43页 |
4.3.1 算法思路 | 第38-40页 |
4.3.2 光照不均匀现象的消除 | 第40-42页 |
4.3.3 自适应的肤色检测算法 | 第42-43页 |
4.3.4 实验对比与结论 | 第43页 |
4.4 基于亮度的嘴部动作识别 | 第43-46页 |
4.4.1 算法思路 | 第43-45页 |
4.4.2 实验对比与结论 | 第45-46页 |
4.5 阈值训练算法 | 第46-47页 |
4.6 本章小结 | 第47-48页 |
第五章 交互系统设计与实现 | 第48-55页 |
5.1 交互系统概述 | 第48-49页 |
5.2 系统工作流程 | 第49-50页 |
5.3 阈值训练界面 | 第50-51页 |
5.4 动作-指令映射自定义 | 第51-52页 |
5.5 医嘱设置界面 | 第52-53页 |
5.6 可调节参数设置 | 第53-54页 |
5.7 本章小结 | 第54-55页 |
第六章 系统测试 | 第55-58页 |
6.1 指令测试 | 第55-56页 |
6.2 逻辑测试 | 第56-57页 |
6.3 本章小结 | 第57-58页 |
第七章 总结与展望 | 第58-59页 |
7.1 总结 | 第58页 |
7.2 展望 | 第58-59页 |
参考文献 | 第59-63页 |
致谢 | 第63-64页 |
附录 | 第64页 |