语音识别在视频会议中的应用研究及实现
| 摘要 | 第5-6页 |
| Abstract | 第6页 |
| 第一章 绪论 | 第10-13页 |
| 1.1 研究背景及意义 | 第10-11页 |
| 1.2 国内外研究现状 | 第11-12页 |
| 1.2.1 视频会议国内外研究现状 | 第11页 |
| 1.2.2 语音识别技术国内外研究现状 | 第11-12页 |
| 1.3 本文主要工作及论文结构 | 第12-13页 |
| 第二章 相关技术介绍 | 第13-25页 |
| 2.1 Android系统平台 | 第13-16页 |
| 2.1.1 Android简介 | 第13页 |
| 2.1.2 Android系统架构 | 第13-15页 |
| 2.1.3 Android应用程序组件 | 第15-16页 |
| 2.1.4 Android平台特点及优势 | 第16页 |
| 2.2 语音识别技术 | 第16-21页 |
| 2.2.1 语音识别原理概述 | 第17-19页 |
| 2.2.2 在线语音识别技术选择 | 第19-20页 |
| 2.2.3 Sphinx语音识别系统 | 第20-21页 |
| 2.3 音频文件格式 | 第21页 |
| 2.4 WebRTC音频处理 | 第21-23页 |
| 2.5 JNI技术 | 第23-24页 |
| 2.6 本章小结 | 第24-25页 |
| 第三章 语音识别系统设计 | 第25-32页 |
| 3.1 视频会议系统整体架构 | 第25-26页 |
| 3.2 语音识别系统功能模块设计 | 第26-29页 |
| 3.2.1 音频采集模块 | 第27-28页 |
| 3.2.2 音频处理模块 | 第28页 |
| 3.2.3 在线语音识别模块 | 第28-29页 |
| 3.2.4 本地语音识别模块 | 第29页 |
| 3.2.5 动作控制模块 | 第29页 |
| 3.3 数据库设计 | 第29-30页 |
| 3.4 预设语音识别命令 | 第30-31页 |
| 3.5 本章小结 | 第31-32页 |
| 第四章 语音识别系统实现 | 第32-73页 |
| 4.1 音频采集模块实现 | 第32-36页 |
| 4.2 音频处理模块实现 | 第36-56页 |
| 4.2.1 噪声抑制 | 第36-46页 |
| 4.2.2 生成无损音频文件 | 第46-51页 |
| 4.2.3 无损压缩 | 第51-56页 |
| 4.3 在线语音识别实现 | 第56-60页 |
| 4.4 本地语音识别实现 | 第60-69页 |
| 4.4.1 本地语音识别架构 | 第61-62页 |
| 4.4.2 工人线程模式实现 | 第62-65页 |
| 4.4.3 语音识别过程本地化 | 第65-69页 |
| 4.5 数据库实现 | 第69-70页 |
| 4.6 动作控制实现 | 第70-72页 |
| 4.7 本章小结 | 第72-73页 |
| 第五章 系统测试 | 第73-85页 |
| 5.1 开发及测试环境 | 第73-74页 |
| 5.1.1 交叉编译 | 第73-74页 |
| 5.1.2 系统测试环境 | 第74页 |
| 5.2 功能测试 | 第74-80页 |
| 5.2.1 在线语音命令识别测试 | 第75页 |
| 5.2.2 本地语音命令识别测试 | 第75-77页 |
| 5.2.3 其它处理测试 | 第77-80页 |
| 5.3 性能测试 | 第80-84页 |
| 5.3.1 识别准确率 | 第80-81页 |
| 5.3.2 平均处理时间 | 第81-84页 |
| 5.4 本章小结 | 第84-85页 |
| 结论 | 第85-86页 |
| 参考文献 | 第86-88页 |
| 攻读硕士学位期间取得的研究成果 | 第88-89页 |
| 致谢 | 第89-90页 |
| 附件 | 第90页 |