1 PROLOGUE | 第7-12页 |
2 MT STATE OF THE ART | 第12-33页 |
2.1 MT AS SYMBOLIC SYSTEMS | 第12-15页 |
2.2 PRACTICAL MT | 第15-17页 |
2.3 ALTERNATIVE TECHNIQUE OF MT | 第17-29页 |
2.3.1 Theoretical foundation | 第17-18页 |
2.3.2 Translation model | 第18-26页 |
2.3.3 Language model | 第26-29页 |
2.4 DISCUSSION | 第29-33页 |
3 CONNECTIONIST SOLUTIONS | 第33-94页 |
3.1 NLp MODELS | 第33-42页 |
3.2 REPRESENTATION | 第42-48页 |
3.3 PHONOLOGICAL PROCESSING | 第48-52页 |
3.4 LEARNING VERB PAST TENSE | 第52-56页 |
3.5 PART OF SPEECH TAGGING | 第56-60页 |
3.6 CHINESE COLLOCATION LEARNING | 第60-62页 |
3.7 SYNTACTIC PARSING | 第62-81页 |
3.7.1 Leaning active/passive transformation | 第62-66页 |
3.7.2 Confluent preorder parsing | 第66-70页 |
3.7.3 Parsing with flat structures | 第70-75页 |
3.7.4 Parsing embedded clauses | 第75-78页 |
3.7.5 Parsing with deeper structures | 第78-81页 |
3.8 DISCOURSE ANALYSIS | 第81-90页 |
3.8.1 Story gestalt and text understanding | 第81-84页 |
3.8.2 Processing stories with scriptural knowledge | 第84-90页 |
3.9 MACHINE TRANSLATION | 第90-91页 |
3.10 CONCLUSION | 第91-94页 |
4 NEUROTRANS DESIGN CONSIDERATIONS | 第94-109页 |
4.1 SCALABILITY AND EXTENSIBILITY | 第95-97页 |
4.2 TRANSFER OR INTER-LINGUAL | 第97-98页 |
4.3 HYBRID OR FULLY CONNECTIONIST | 第98-99页 |
4.4 THE USE OF LINGUISTIC KNOWLEDGE | 第99-100页 |
4.5 TRANSLATION AS A TWO-STAGE PROCESS | 第100-102页 |
4.6 SELECTION OF NETWORK MODELS | 第102-104页 |
4.7 CONNECTIONIST IMPLEMENTATION | 第104-105页 |
4.8 CONNECTIONIST REPRESETATION ISSUES | 第105-107页 |
4.9 CONCLUSION | 第107-109页 |
5 ANEURAL LEXICON MODEL | 第109-165页 |
5.1 LANGUAGE DATA | 第109-114页 |
5.2 KNOWLEDGE REPRESENTATION | 第114-136页 |
5.2.1 Symbolic approach | 第114-121页 |
5.2.2 The statistical approach | 第121-124页 |
5.2.3 Connectionist approach | 第124-126页 |
5.2.4 NeuroTrans' input/output representation | 第126-131页 |
5.2.5 NeuroTrans'lexicon representation | 第131-136页 |
5.3 IMPLEMENTING THE NEURALAL LEXICON | 第136-145页 |
5.3.1 Words in context | 第136-138页 |
5.3.2COntext with weights | 第138页 |
5.3.3 Details of algorithm | 第138-142页 |
5.3.4 The Neural Lexicon Builder | 第142-145页 |
5.4 TRAINING | 第145-160页 |
5.4.1 Sample preparation | 第145-151页 |
5.4.2 Training results | 第151-157页 |
5.4.3 Generalization test | 第157-160页 |
5.5 DISCUSSION | 第160-165页 |
5.5.1 Adequacy | 第160-161页 |
5.5.2 Scalability and Extensibility | 第161-162页 |
5.5.3 Efficiency | 第162-163页 |
5.5.4 Weaknesses | 第163-165页 |
6 IMPLEMENTING THE LANGUAGE MODEL | 第165-189页 |
6.1 OVERVIEW | 第165-167页 |
6.2 DESIGN | 第167-175页 |
6.2.l Redefining the generatation problem | 第167-170页 |
6.2.2 Defining jumble activity | 第170-174页 |
6.2.3 Language model structure | 第174-175页 |
6.3 IMPLEMENTATION | 第175-185页 |
6.3.1 Network structure | 第175-176页 |
6.3.2 Sapmling | 第176-178页 |
6.3.3 Trainig and results | 第178-182页 |
6.3.4 Generalization test | 第182-185页 |
6.4 DISCUSSION | 第185-189页 |
6.4.1 Insufficient data | 第185页 |
6.4.2 Information richness | 第185-186页 |
6.4.3 Insufficient contextual information | 第186-187页 |
6.4.4 Distributed language model | 第187-189页 |
7 CONCLUSION | 第189-190页 |
8 REFERENCES | 第190-202页 |