首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--文字信息处理论文

基于深度学习模型的CCG超标注

摘要第4-6页
Abstract第6-8页
Chapter 1 Introduction第17-40页
    1.1 Motivation第17-19页
    1.2 The CCG Supertagging Task第19-21页
    1.3 Applications of CCG Supertagging第21-22页
    1.4 Categorial Grammar第22页
    1.5 Combinatory Categorial Grammar第22-27页
        1.5.1 Application Combinators第24-25页
        1.5.2 Composition Combinators第25-26页
        1.5.3 Type-raising Combinators第26-27页
    1.6 Literature Review第27-34页
        1.6.1 Supertagging第28-29页
        1.6.2 CCG supertagging第29-34页
    1.7 Evaluation Metric第34页
    1.8 Dataset第34-35页
    1.9 Thesis Contributions第35-37页
    1.10 Organization of the Thesis第37-40页
Chapter 2 Gated Recurrent Units for the CCG Supertagging task第40-59页
    2.1 Introduction第40页
    2.2 Neural Networks第40-48页
        2.2.1 Deep Learning第40-43页
        2.2.2 Recurrent Neural Networks第43-45页
        2.2.3 Bidirectional RNN第45-47页
        2.2.4 Gated Recurrent Units第47-48页
    2.3 BGRU proposed model for the CCG Supertagging task第48-52页
        2.3.1 Input Layer第49-50页
        2.3.2 GRU Neural Network第50-51页
        2.3.3 Output Layer第51-52页
    2.4 Experiment Settings第52-53页
        2.4.1 Dataset第52页
        2.4.2 Data Preprocessing第52页
        2.4.3 Hyper-Parameters and Training第52页
        2.4.4 Word embeddings Settings第52-53页
        2.4.5 Learning Algorithm第53页
        2.4.6 Dropout第53页
    2.5 Results and Analysis第53-57页
        2.5.1 Supertagging Results第53-55页
        2.5.2 Multi-tagging Results第55-57页
    2.6 Summary第57-59页
Chapter 3 Backward-BLSTM model for the CCG Supertagging task第59-74页
    3.1 Introduction第59-63页
        3.1.1 Long Short Term Memory Networks第60-63页
    3.2 Backward-BLSTM proposed model for the CCG Supertagging task第63-65页
        3.2.1 Input Layer第63-64页
        3.2.2 Neural Network第64-65页
        3.2.3 Output layer第65页
    3.3 Experiments Settings第65-69页
        3.3.1 Experimental Data第65-66页
        3.3.2 Data Preprocessing第66页
        3.3.3 Implementation第66页
        3.3.4 Hyper-Parameters第66-67页
        3.3.5 Learning Algorithm第67页
        3.3.6 Dropout第67-69页
    3.4 Experiment Results第69-72页
        3.4.1 Supertagging Results第69-71页
        3.4.2 Multi-tagging Results第71-72页
    3.5 Summary第72-74页
Chapter 4 BLSTM-CRF model for the CCG Supertagging task第74-87页
    4.1 Introduction第74-75页
    4.2 Model Description第75-81页
        4.2.1 BLSTM Network第75-77页
        4.2.2 Conditional Random Fields第77-79页
        4.2.3 BLSTM-CRF proposed model for the CCG Supertagging task第79-81页
    4.3 Experiment Settings第81-83页
        4.3.1 Datasets第81-82页
        4.3.2 Word embeddings第82页
        4.3.3 Optimization Algorithm第82页
        4.3.4 Dropout Training第82页
        4.3.5 Hyper-Parameters Tuning第82-83页
    4.4 Results and Analysis第83-86页
        4.4.1 Supertagging Results第83-85页
        4.4.2 Multi-tagging Results第85-86页
    4.5 Summary第86-87页
Chapter 5 Character-Word embeddings for the CCG Supertagging task第87-98页
    5.1 Introduction第87-88页
    5.2 Character-Word embeddings proposed model for the CCG Supertagging task第88-92页
        5.2.1 Word-Level Neural Network第88-90页
        5.2.2 Character-Level Neural Network第90-91页
        5.2.3 Concatenation第91-92页
    5.3 Experiments settings第92-94页
        5.3.1 Datasets第92-93页
        5.3.2 Hyper-Parameters第93-94页
    5.4 Results and Analysis第94-96页
        5.4.1 Supertagging results第94-96页
        5.4.2 Multi-tagging Results第96页
    5.5 Summary第96-98页
结论第98-100页
参考文献第100-111页
攻读博士学位期间发表的论文及其他成果第111-113页
致谢第113-114页
个人简历第114页

论文共114页,点击 下载论文
上一篇:文本否定范围识别技术研究及其应用
下一篇:手性光纤中脉冲传输特性的理论研究