首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--文字信息处理论文

主题模型的快速吉布斯采样主题推断算法研究

摘要第4-6页
Abstract第6-8页
第1章 绪论第13-23页
    1.1 研究背景及意义第13-14页
    1.2 研究现状第14-20页
        1.2.1 主题模型的起源和发展第14-16页
        1.2.2 LDA模型的快速吉布斯采样主题推断算法研究现状第16-20页
    1.3 本文的组织结构和研究内容第20-23页
第2章 相关背景和研究基础第23-39页
    2.1 LDA模型以及Std Gibbs算法和Sparse LDA算法第23-32页
        2.1.1 LDA模型第23-24页
        2.1.2 Std Gibbs算法第24-28页
        2.1.3 Sparse LDA算法第28-32页
    2.2 BTM模型和Std BTM算法第32-38页
        2.2.1 BTM模型第33-35页
        2.2.2 Std BTM算法第35-38页
    2.3 本章小结第38-39页
第3章 适用于长文本主题推断的快速吉布斯采样算法(ESparse LDA)第39-63页
    3.1 引言第39-41页
    3.2 问题提出第41页
    3.3 解决思路第41-43页
    3.4 提出方法第43-50页
        3.4.1 算法框架第43-48页
        3.4.2 时间复杂度分析第48-49页
        3.4.3 算法特点说明第49-50页
    3.5 实验结果与分析第50-61页
        3.5.1 数据集和评价标准第50-53页
        3.5.2 参数设置和实现细节第53-54页
        3.5.3 实验设计、结果和分析第54-61页
    3.6 本章小结第61-63页
第4章 适用于短文本主题推断的快速吉布斯采样算法(Sparse BTM)第63-89页
    4.1 引言第63-64页
    4.2 算法思路第64-70页
        4.2.1 总体主题概率的拆解第66-67页
        4.2.2 采用缓存策略计算S项第67页
        4.2.3 采用稀疏策略计算I项、J项和Q项第67-70页
    4.3 算法框架第70-78页
        4.3.1 Sparse BTM算法的计算过程第70-72页
        4.3.2 Sparse BTM算法的数据结构第72-74页
        4.3.3 Sparse BTM算法的搜索过程第74-75页
        4.3.4 Sparse BTM算法的时间复杂度分析第75-76页
        4.3.5 Sparse BTM算法的空间开销分析第76-77页
        4.3.6 Sparse BTM算法精确性的证明第77-78页
    4.4 实验结果与分析第78-86页
        4.4.1 数据集第79-80页
        4.4.2 参数设置和实验平台第80页
        4.4.3 实验设计、结果和分析第80-86页
    4.5 本章小结第86-89页
第5章 基于重排双词的适用于短文本主题推断的快速吉布斯采样算法(ESparse BTM)第89-99页
    5.1 引言第89-90页
    5.2 问题提出第90页
    5.3 解决思路第90-91页
        5.3.1 重排双词词项的想法第90-91页
        5.3.2 缓存策略的想法第91页
    5.4 提出方法第91-94页
        5.4.1 ESparse BTM算法的框架流程第91-92页
        5.4.2 ESparse BTM算法的时间复杂度分析第92-93页
        5.4.3 ESparse BTM算法精确性的证明第93-94页
    5.5 实验结果与分析第94-98页
    5.6 本章小结第98-99页
第6章 总结和展望第99-103页
    6.1 总结第99-101页
    6.2 展望第101-103页
参考文献第103-111页
作者简介及在学期间所取得的科研成果第111-114页
致谢第114页

论文共114页,点击 下载论文
上一篇:三种遗传性癌症MicroRNA异常表达网络的研究
下一篇:基于冲突序列的不协调本体调试与修复