首页--语言、文字论文--常用外国语论文--英语论文--语文教学论文

对于词汇增长数学模型的实证性研究

摘要第1-6页
Abstract第6-15页
Chapter One Introduction第15-21页
   ·Background of Vocabulary Study第15-16页
   ·Objective of This Paper第16-17页
   ·Significance of This Paper第17-18页
   ·Research Method第18页
   ·Related Concepts第18-20页
     ·Token and Type第18页
     ·Word Family and Lemma第18-19页
     ·Tokenization and Lemmatization第19-20页
   ·Layout of the Thesis第20-21页
Chapter Two Theoretical Background第21-35页
   ·Zipfs Law第22-24页
   ·Characteristic Constants第24-26页
   ·Lexical Growth Models第26-32页
     ·Guiraud's Model第26-27页
     ·Brunet's Model第27-29页
     ·Kohler-Martináková's Model第29-30页
     ·Tuldava's Model第30-31页
     ·Herdan-Heaps'Model第31-32页
     ·Fan's Model Test第32页
   ·LNRE Zone第32-35页
Chapter Three Data Collection and Processing第35-41页
   ·Corpus Description第35-38页
   ·Tools for Data Processing第38-39页
   ·Procedures for Data Processing第39-41页
Chapter Four Results and Analysis第41-71页
   ·Vocabulary Size Distributions of Individual Texts第41-45页
   ·Inter-textual Vocabulary Growth Pattern第45-63页
     ·Test of Vocabulary Growth Models for 50000≤N≤80000000第47-55页
     ·Analysis of Residual Errors for Existing Models第55-59页
     ·Calculation of Parameters第59-60页
     ·Vocabulary Growth Pattern for N≤50000第60-63页
   ·Decreasing Pattern of Newly Occurring Words第63-66页
   ·Analysis of Newly Occurring Words第66-68页
   ·Discussion第68-71页
Chapter Five Conclusion第71-74页
   ·Major Findings of the Study第71-73页
   ·Suggestions for Further Study第73-74页
Reference第74-78页
Appendix A第78-86页
 Program for Random Sampling第78-79页
 Program for Tokenization第79-81页
 Program for Calculating V(N) and Vj against N第81-83页
 Program for Obtaining Part of Speech Data on the Newly Occurring Words第83-86页
Appendix B第86-89页
 Part of the Newly Occurring Words Brought by 2 Million Words Input into the 80 Million Words(Initial Letter A)第86-89页
Acknowledgements第89-90页
Resume第90页

论文共90页,点击 下载论文
上一篇:中国英语学习者使用CONSEQUENCE近义词语义韵特点分析
下一篇:多媒体教学模式与传统教学模式对比研究--以大连海事大学大学英语教学为例