首页--语言、文字论文--语言学论文--应用语言学论文--机器翻译论文

Neuro Trans

1 PROLOGUE第7-12页
2 MT STATE OF THE ART第12-33页
    2.1 MT AS SYMBOLIC SYSTEMS第12-15页
    2.2 PRACTICAL MT第15-17页
    2.3 ALTERNATIVE TECHNIQUE OF MT第17-29页
        2.3.1 Theoretical foundation第17-18页
        2.3.2 Translation model第18-26页
        2.3.3 Language model第26-29页
    2.4 DISCUSSION第29-33页
3 CONNECTIONIST SOLUTIONS第33-94页
    3.1 NLp MODELS第33-42页
    3.2 REPRESENTATION第42-48页
    3.3 PHONOLOGICAL PROCESSING第48-52页
    3.4 LEARNING VERB PAST TENSE第52-56页
    3.5 PART OF SPEECH TAGGING第56-60页
    3.6 CHINESE COLLOCATION LEARNING第60-62页
    3.7 SYNTACTIC PARSING第62-81页
        3.7.1 Leaning active/passive transformation第62-66页
        3.7.2 Confluent preorder parsing第66-70页
        3.7.3 Parsing with flat structures第70-75页
        3.7.4 Parsing embedded clauses第75-78页
        3.7.5 Parsing with deeper structures第78-81页
    3.8 DISCOURSE ANALYSIS第81-90页
        3.8.1 Story gestalt and text understanding第81-84页
        3.8.2 Processing stories with scriptural knowledge第84-90页
    3.9 MACHINE TRANSLATION第90-91页
    3.10 CONCLUSION第91-94页
4 NEUROTRANS DESIGN CONSIDERATIONS第94-109页
    4.1 SCALABILITY AND EXTENSIBILITY第95-97页
    4.2 TRANSFER OR INTER-LINGUAL第97-98页
    4.3 HYBRID OR FULLY CONNECTIONIST第98-99页
    4.4 THE USE OF LINGUISTIC KNOWLEDGE第99-100页
    4.5 TRANSLATION AS A TWO-STAGE PROCESS第100-102页
    4.6 SELECTION OF NETWORK MODELS第102-104页
    4.7 CONNECTIONIST IMPLEMENTATION第104-105页
    4.8 CONNECTIONIST REPRESETATION ISSUES第105-107页
    4.9 CONCLUSION第107-109页
5 ANEURAL LEXICON MODEL第109-165页
    5.1 LANGUAGE DATA第109-114页
    5.2 KNOWLEDGE REPRESENTATION第114-136页
        5.2.1 Symbolic approach第114-121页
        5.2.2 The statistical approach第121-124页
        5.2.3 Connectionist approach第124-126页
        5.2.4 NeuroTrans' input/output representation第126-131页
        5.2.5 NeuroTrans'lexicon representation第131-136页
    5.3 IMPLEMENTING THE NEURALAL LEXICON第136-145页
        5.3.1 Words in context第136-138页
        5.3.2COntext with weights第138页
        5.3.3 Details of algorithm第138-142页
        5.3.4 The Neural Lexicon Builder第142-145页
    5.4 TRAINING第145-160页
        5.4.1 Sample preparation第145-151页
        5.4.2 Training results第151-157页
        5.4.3 Generalization test第157-160页
    5.5 DISCUSSION第160-165页
        5.5.1 Adequacy第160-161页
        5.5.2 Scalability and Extensibility第161-162页
        5.5.3 Efficiency第162-163页
        5.5.4 Weaknesses第163-165页
6 IMPLEMENTING THE LANGUAGE MODEL第165-189页
    6.1 OVERVIEW第165-167页
    6.2 DESIGN第167-175页
        6.2.l Redefining the generatation problem第167-170页
        6.2.2 Defining jumble activity第170-174页
        6.2.3 Language model structure第174-175页
    6.3 IMPLEMENTATION第175-185页
        6.3.1 Network structure第175-176页
        6.3.2 Sapmling第176-178页
        6.3.3 Trainig and results第178-182页
        6.3.4 Generalization test第182-185页
    6.4 DISCUSSION第185-189页
        6.4.1 Insufficient data第185页
        6.4.2 Information richness第185-186页
        6.4.3 Insufficient contextual information第186-187页
        6.4.4 Distributed language model第187-189页
7 CONCLUSION第189-190页
8 REFERENCES第190-202页

论文共202页,点击 下载论文
上一篇:Structural Modeling and Characterization of Protein Interaction Network
下一篇:我国资产价格波动与通货膨胀的关系研究--基于我国FCI指数的实证分析