第1章 绪论 | 第1-12页 |
1.1 语音用户界面的研究背景和意义 | 第9-10页 |
1.2 本论文的工作目的 | 第10页 |
1.3 本论文的安排 | 第10-12页 |
第2章 人机交互界面的研究概况 | 第12-19页 |
2.1 人机交互的基本概念和发展历史 | 第12-16页 |
2.1.1 基本概念 | 第12页 |
2.1.2 发展历史 | 第12-16页 |
2.2 多通道用户界面的基本问题 | 第16-18页 |
2.2.1 多通道用户界面的研究目标 | 第16页 |
2.2.2 多通道用户界面的特点 | 第16-17页 |
2.2.3 多通道用户界面的主要问题 | 第17-18页 |
2.3 本章小结 | 第18-19页 |
第3章 语音用户界面的基本理论 | 第19-31页 |
3.1 语音用户界面的分类 | 第19-20页 |
3.2 语音的特点 | 第20-23页 |
3.2.1 语音的物理特性 | 第20-21页 |
3.2.2 语音在人机交互的过程中所表现的特点 | 第21-23页 |
3.3 语音技术简介 | 第23-28页 |
3.3.1 语音识别技术(Speech Recognition) | 第23-25页 |
3.3.2 语音合成技术(Speech Synthesis) | 第25-27页 |
3.3.3 自然语言理解(Natural Language Processing) | 第27-28页 |
3.3.4 语音处理技术的选择 | 第28页 |
3.4 语音界面的发展和研究现状 | 第28-30页 |
3.4.1 历史和发展 | 第28-29页 |
3.4.2 研究现状 | 第29-30页 |
3.5 本章小结 | 第30-31页 |
第4章 语音界面的交互模型和设计原则 | 第31-41页 |
4.1 语音界面的交互模型 | 第31-33页 |
4.1.1 语音界面的心理模型 | 第31-32页 |
4.1.2 语音界面的交互模型 | 第32-33页 |
4.2 语音界面中人的因素 | 第33-34页 |
4.2.1 引入人性化设计的必然性 | 第33页 |
4.2.2 语音界面中所需考虑的人的因素 | 第33-34页 |
4.3 语音用户界面的设计原则 | 第34-40页 |
4.4 本章小结 | 第40-41页 |
第5章 语音界面应用平台的设计和实现 | 第41-57页 |
5.1 平台的设计思想 | 第41-42页 |
5.2 系统组成 | 第42-49页 |
5.2.1 系统的总体描述 | 第42页 |
5.2.2 语音识别/合成引擎 | 第42-43页 |
5.2.3 XML语言 | 第43-46页 |
5.2.4 对话流控制 | 第46-47页 |
5.2.5 界面的反馈和状态显示 | 第47-48页 |
5.2.6 各种资源的数据管理 | 第48-49页 |
5.3 平台的具体实现 | 第49-56页 |
5.3.1 语音平台简述 | 第50-52页 |
5.3.2 系统的流程 | 第52-56页 |
5.4 本章小结 | 第56-57页 |
第6章 应用平台的评估和完善 | 第57-66页 |
6.1 实验的设计和分析 | 第57-60页 |
6.1.1 实验的设计 | 第57-58页 |
6.1.2 实验数据和分析 | 第58-60页 |
6.2 应用平台的改进和完善 | 第60-65页 |
6.2.1 差错控制处理 | 第60-61页 |
6.2.2 计算机的反馈信息 | 第61-63页 |
6.2.3 用户的期望值 | 第63页 |
6.2.4 对话的设计 | 第63-65页 |
6.3 本章小结 | 第65-66页 |
结论 | 第66-68页 |
参考文献 | 第68-72页 |
攻读硕士学位期间发表的论文和取得的科研成果 | 第72-73页 |
致谢 | 第73页 |