摘要 | 第4-5页 |
Abstract | 第5-6页 |
第一部分:文献综述 | 第9-26页 |
1 情绪韵律 | 第10-13页 |
1.1 情绪韵律——情绪的语音表达 | 第10页 |
1.2 情绪韵律的自动化加工 | 第10-11页 |
1.3 情绪韵律识别的时间进程 | 第11-13页 |
2 情绪言语加工 | 第13-26页 |
2.1 言语加工理论 | 第13-15页 |
2.1.1 言语加工的抽象理论 | 第13-14页 |
2.1.2 言语加工的样例理论 | 第14-15页 |
2.2 情绪言语加工:行为及电生理研究 | 第15-23页 |
2.2.1 情绪言语加工的行为研究 | 第16-18页 |
2.2.2 情绪言语加工ERP研究考察的指标 | 第18-22页 |
2.2.3 情绪言语加工的ERP研究 | 第22-23页 |
2.3 情绪言语加工:脑损伤以及神经成像研究 | 第23-26页 |
第二部分:问题提出 | 第26-30页 |
1 以往研究存在的局限 | 第26-27页 |
2 本研究要探讨的问题 | 第27-28页 |
3 本研究的基本构想 | 第28-30页 |
第三部分:实验研究 | 第30-54页 |
实验一:情绪韵律单一呈现条件下情绪言语知觉的时间进程 | 第30-44页 |
1 实验目的 | 第30页 |
2 实验假设 | 第30页 |
3 实验方法 | 第30-33页 |
3.1 被试 | 第30-31页 |
3.2 实验材料 | 第31-32页 |
3.2.1 语音词 | 第31-32页 |
3.2.2 视觉词 | 第32页 |
3.3 实验设计 | 第32页 |
3.4 实验流程 | 第32-33页 |
4 EEG记录与获取 | 第33页 |
5 数据分析 | 第33-35页 |
6 实验结果 | 第35-41页 |
6.1 行为结果 | 第35页 |
6.2 ERP结果 | 第35-41页 |
6.2.1 90-150ms(N1) | 第38页 |
6.2.2 150-250ms(P2) | 第38-39页 |
6.2.3 250-550ms(N300-N400) | 第39-40页 |
6.2.4 550-1000ms (late negativity) | 第40-41页 |
7 讨论 | 第41-44页 |
实验二:情绪韵律混合呈现条件下情绪言语知觉的时间进程 | 第44-54页 |
1 实验目的 | 第44页 |
2 实验假设 | 第44页 |
3 实验方法 | 第44-45页 |
3.1 被试 | 第44页 |
3.2 实验材料 | 第44页 |
3.3 实验设计 | 第44-45页 |
3.4 实验流程 | 第45页 |
4 EEG记录与获取 | 第45页 |
5 数据分析 | 第45-46页 |
6 实验结果 | 第46-52页 |
6.1 行为结果 | 第46页 |
6.2 ERP结果 | 第46-52页 |
6.2.1 90-150ms (N1) | 第49页 |
6.2.2 150-250ms (P2) | 第49-50页 |
6.2.3 250-550ms (N300-N400) | 第50-51页 |
6.2.4 550-1000ms (late negativity) | 第51-52页 |
7 讨论 | 第52-54页 |
第四部分:总讨论 | 第54-58页 |
1 情绪韵律实时调节口语情绪词的识别 | 第54-55页 |
2 汉语与其他语言之间的比较 | 第55-56页 |
3 口语识别的理论解释 | 第56-57页 |
4 不足与展望 | 第57页 |
5 结论 | 第57-58页 |
参考文献 | 第58-67页 |
附录 | 第67-69页 |
在读期间发表论文 | 第69-70页 |
致谢 | 第70页 |