一个基于眼电信号的人—机器人交互系统的设计和实现
中文摘要 | 第3-4页 |
Abstract | 第4-5页 |
图索引 | 第9-11页 |
表索引 | 第11-12页 |
中文、英文及缩写对照 | 第12-13页 |
第一章 序言 | 第13-16页 |
1.1 背景 | 第13页 |
1.2 本文研究内容 | 第13-14页 |
1.3 本文结构 | 第14-16页 |
第二章 眼动和眼电信号 | 第16-19页 |
2.1 概述 | 第16页 |
2.2 人眼的结构和眼动 | 第16-17页 |
2.3 眼电信号 | 第17-18页 |
2.4 眼电信号与眼动 | 第18页 |
2.5 本章小结 | 第18-19页 |
第三章 基于眼电信号的眼动识别基础 | 第19-32页 |
3.1 概述 | 第19页 |
3.2 数据采集 | 第19-21页 |
3.2.1 电极布置 | 第20-21页 |
3.2.2 放大、滤波与数字-模拟转换 | 第21页 |
3.3 预处理 | 第21-23页 |
3.3.1 噪声去除 | 第21-22页 |
3.3.2 端点检测 | 第22-23页 |
3.4 特征提取 | 第23-26页 |
3.4.1 特征构建 | 第23-25页 |
3.4.2 特征选择 | 第25-26页 |
3.5 基于特征的分类 | 第26-31页 |
3.5.1 支持向量机 | 第26-27页 |
3.5.2 人工神经网络 | 第27-28页 |
3.5.3 高斯混合模型 | 第28-30页 |
3.5.4 分类结果的评估方法 | 第30-31页 |
3.6 本章小结 | 第31-32页 |
第四章 识别算法改进及仿真 | 第32-55页 |
4.1 概述 | 第32页 |
4.2 数据采集 | 第32-37页 |
4.2.1 被试准备 | 第33页 |
4.2.2 实验环境 | 第33-34页 |
4.2.3 采集设备 | 第34-35页 |
4.2.4 电极布置 | 第35-36页 |
4.2.5 采集流程 | 第36-37页 |
4.3 预处理 | 第37-46页 |
4.3.1 基线偏移补偿 | 第37-38页 |
4.3.2 噪声和基线漂移去除 | 第38-44页 |
4.3.3 不可用记录的剔除 | 第44-45页 |
4.3.4 端点检测改进及仿真 | 第45-46页 |
4.4 特征提取 | 第46-51页 |
4.4.1 特征构建 | 第47-49页 |
4.4.2 特征参数的有效性 | 第49-51页 |
4.4.3 经验数据的特征集 | 第51页 |
4.5 基于特征的分类 | 第51-53页 |
4.5.1 流程概述 | 第51-52页 |
4.5.2 分类及结果评估 | 第52-53页 |
4.6 本章小结 | 第53-55页 |
第五章 系统设计和实现 | 第55-64页 |
5.1 概述 | 第55页 |
5.2 总体设计 | 第55-56页 |
5.3 NAO机器人简介 | 第56-57页 |
5.4 计算机端服务程序 | 第57-62页 |
5.4.1 图形用户界面 | 第58页 |
5.4.2 数据获取和预处理 | 第58-59页 |
5.4.3 基于连续双眨眼的命令段识别 | 第59-60页 |
5.4.4 识别命令段中的扫视运动 | 第60-61页 |
5.4.5 命令的执行 | 第61-62页 |
5.4.6 健壮性测试 | 第62页 |
5.5 识别准确性评估 | 第62页 |
5.6 本章小结 | 第62-64页 |
第六章 总结与展望 | 第64-65页 |
参考文献 | 第65-69页 |
在学期间的研究成果 | 第69-70页 |
致谢 | 第70页 |