首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机软件论文--程序设计、软件工程论文--程序设计论文

基于众包的网络表格语义恢复

致谢第5-6页
摘要第6-7页
ABSTRACT第7页
1 引言第10-16页
    1.1 研究背景和意义第10-11页
    1.2 网络表格语义恢复的研究现状第11-12页
    1.3 众包的研究现状第12-13页
    1.4 本文完成的工作第13-14页
    1.5 本文的组织结构第14-16页
2 基于众包的网络表格语义恢复第16-30页
    2.1 网络表格的特征研究第16-17页
    2.2 语义库第17-22页
        2.2.1 Freebase第18-19页
        2.2.2 WordNet第19-20页
        2.2.3 HowNet第20-21页
        2.2.4 DBpedia第21-22页
    2.3 表格语义恢复技术的研究第22-23页
    2.4 众包第23-28页
        2.4.1 AMT第24-26页
        2.4.2 CrowFlower第26-27页
        2.4.3 有关众包的问题研究第27-28页
    2.5 本章小结第28-30页
3 基于众包的表头和实体列恢复第30-48页
    3.1 候选表头和实体列的获取第30-31页
        3.1.1 Probase第30-31页
        3.1.2 基于Probase的表头和实体列恢复第31页
    3.2 基于改善Kmeans的任务约简方法第31-34页
    3.3 表头和实体列标注的问题设计第34-35页
    3.4 基于答案可信度的评估机制第35-37页
    3.5 实验评估第37-46页
        3.5.1 实验设置第37页
        3.5.2 CAID聚类算法的评估第37-40页
        3.5.3 表头和实体列标注的有效性评估第40-43页
        3.5.4 任务约简方法的评估第43-45页
        3.5.5 任务推荐和答案决策模型的有效性评估第45-46页
    3.6 本章小结第46-48页
4 基于众包的外键标注第48-66页
    4.1 问题描述第48-50页
    4.2 基于模糊Jaccard相似度的类外键检测第50-51页
    4.3 基于属性依赖关系的任务约简方法第51-52页
    4.4 基于冲突检测的动态问题规划第52-57页
    4.5 外键标注的问题设计第57页
    4.6 实验评估第57-65页
        4.6.1 实验准备第58-59页
        4.6.2 评估指标第59-60页
        4.6.3 外键获取方法的评估第60-64页
        4.6.4 外键人工标注的评估第64-65页
    4.7 本章小结第65-66页
5 CrowdSR系统概述第66-70页
    5.1 系统概述第66-67页
    5.2 CrowdSR和AMT的对比第67-68页
    5.3 本章小结第68-70页
6 总结与展望第70-72页
    6.1 研究工作总结第70页
    6.2 进一步研究工作第70-72页
参考文献第72-76页
作者简历及攻读硕士学位期间取得的研究成果第76-80页
学位论文数据集第80页

论文共80页,点击 下载论文
上一篇:双压力角非对称齿轮承载能力的影响因素研究及参数优化
下一篇:基于电动汽车的异步电机高性能容错控制系统研究