首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--文字信息处理论文

面向服务机器人自然语言交互的语义解析方法研究

摘要第5-6页
ABSTRACT第6-7页
第1章 绪论第13-19页
    1.1 研究背景与动机第13-15页
    1.2 研究内容第15-16页
    1.3 组织结构第16-19页
第2章 相关工作与背景知识第19-39页
    2.1 语义解析的背景第19-21页
        2.1.1 语义解析的应用场景第19-20页
        2.1.2 语义表示的形式第20-21页
    2.2 语义解析方法分类第21-25页
        2.2.1 基于规则的语义解析方法第21页
        2.2.2 基于机器学习的语义解析方法第21-23页
        2.2.3 基于神经网络的语义解析方法第23-24页
        2.2.4 基于弱监督的语义解析方法第24-25页
    2.3 基于LSTM网络的语义解析模型第25-27页
        2.3.1 编码器-解码器框架第25-26页
        2.3.2 基于LSTM的编码器-解码器模型第26页
        2.3.3 结合注意力机制的语义解析模型第26-27页
    2.4 自注意力机制与Transformer网络第27-30页
        2.4.1 Self-attention自注意力机制第27-28页
        2.4.2 Transformer网络结构第28-30页
    2.5 预训练语言模型第30-37页
        2.5.1 自编码语言模型第31-32页
        2.5.2 自回归语言模型第32-34页
        2.5.3 编码器-解码器结构的预训练语言模型第34-37页
    2.6 知识蒸馏第37-38页
    2.7 本章小结第38-39页
第3章 结合句法分析的Tree2Tree语义解析方法第39-47页
    3.1 本章引言第39页
    3.2 Tree2Tree总体架构第39页
    3.3 树编码器第39-42页
        3.3.1 句法分析第39-41页
        3.3.2 Tree-LSTM单元第41-42页
    3.4 序列编码器第42-43页
    3.5 树解码器第43-44页
    3.6 注意力机制第44页
    3.7 本章小结第44-47页
第4章 基于知识蒸馏和预训练语言模型的语义解析方法第47-59页
    4.1 本章引言第47页
    4.2 整体架构第47-48页
    4.3 教师模型的构建第48-51页
        4.3.1 基于UNiLM的语义解析模型第48页
        4.3.2 模型结构第48-50页
        4.3.3 微调第50-51页
    4.4 学生模型的构建第51-52页
        4.4.1 基于LSTM的语义解析模型第51-52页
        4.4.2 模型训练方法第52页
    4.5 知识蒸馏训练方法第52-57页
        4.5.1 概念第52-53页
        4.5.2 序列生成知识蒸馏第53-57页
    4.6 本章小结第57-59页
第5章 实验第59-67页
    5.1 实验环境第59页
    5.2 数据集第59-60页
    5.3 实验设置第60-61页
        5.3.1 评测指标第60页
        5.3.2 Tree2Tree模型参数设置第60-61页
        5.3.3 基于预训练模型和知识蒸馏的语义解析模型参数设置第61页
    5.4 实验结果与分析第61-65页
        5.4.1 结合句法分析的Tree2Tree语义解析模型第61-62页
        5.4.2 基于预训练模型和知识蒸馏的语义解析模型第62-65页
    5.5 本章小结第65-67页
第6章 总结与展望第67-69页
    6.1 本文工作总结第67-68页
    6.2 未来工作展望第68-69页
参考文献第69-75页
致谢第75-77页
在读期间发表的学术论文与取得的研究成果第77页

论文共77页,点击 下载论文
上一篇:甘肃省政府支持多元主体参与居家养老服务研究
下一篇:甘肃省和政县养老服务体系构建研究