摘要 | 第1-3页 |
ABSTRACT | 第3-5页 |
目录 | 第5-8页 |
第一章 绪论 | 第8-13页 |
·研究背景 | 第8-9页 |
·研究进展 | 第9-10页 |
·本文所做的工作 | 第10-13页 |
第二章 预备知识 | 第13-26页 |
·巩固学习 | 第13-18页 |
·巩固学习的基本概念 | 第13-16页 |
·巩固学习模型 | 第13-14页 |
·马尔可夫决策过程 | 第14页 |
·巩固学习算法 | 第14-16页 |
·巩固学习的发展与研究状况 | 第16-18页 |
·网络蜘蛛搜索策略比较研究 | 第18-25页 |
·专业搜索引擎网络蜘蛛模型 | 第18-19页 |
·网络蜘蛛搜索策略的分类 | 第19-24页 |
·基于立即回报价值评价的搜索策略 | 第19-22页 |
·基于内容评价的搜索策略 | 第19-20页 |
·基于链接结构评价的搜索策略 | 第20-22页 |
·基于未来回报价值评价的搜索策略 | 第22-24页 |
·网络蜘蛛搜索策略比较 | 第24-25页 |
·小结 | 第25-26页 |
第三章 基于隐偏向信息学习的巩固学习算法研究 | 第26-36页 |
·引言 | 第26页 |
·基于隐偏向信息学习的巩固学习模型及算法 | 第26-35页 |
·问题描述 | 第26-27页 |
·隐偏向信息学习 | 第27-28页 |
·隐偏向信息 | 第27页 |
·代理体的行动选择机制 | 第27-28页 |
·基于隐偏向信息学习的Feature-SARSA(λ)算法 | 第28-31页 |
·局部状态特征与特征抽取函数 | 第28-29页 |
·策略调整函数与Feature-SARSA(λ)算法 | 第29-30页 |
·复杂性分析 | 第30-31页 |
·实验 | 第31-35页 |
·推箱任务(Box Pushing Task) | 第31-32页 |
·SARSA(O)和Feature-SARSA(O)算法实验结果比较 | 第32-34页 |
·SARSA(λ)和Feature-SARSA(λ)算法实验结果比较 | 第34-35页 |
·小结 | 第35-36页 |
第四章 基于隐偏向信息学习的网络蜘蛛学习算法研究 | 第36-41页 |
·引言 | 第36页 |
·相关描述 | 第36页 |
·局部状态特征 | 第36-37页 |
·基于偏向信息学习的网络蜘蛛学习算法 | 第37-38页 |
·实验 | 第38-40页 |
·小结 | 第40-41页 |
第五章 基于未来回报信度递减的网络蜘蛛搜索策略研究 | 第41-47页 |
·引言 | 第41页 |
·传统网络蜘蛛搜索策略比较 | 第41-42页 |
·基于巩固学习的“启发式”网络蜘蛛模型及搜索算法 | 第42-44页 |
·启发式网络蜘蛛模型 | 第42页 |
·信任指派与价值置信函数 | 第42-43页 |
·基于未来回报信度递减的启发式搜索算法 | 第43-44页 |
·实验 | 第44-46页 |
·实验背景 | 第44页 |
·实验结果及性能比较 | 第44-46页 |
·小结 | 第46-47页 |
第六章 基于模拟退火的网络蜘蛛搜索策略研究 | 第47-51页 |
·引言 | 第47页 |
·网络蜘蛛搜索空间的特点 | 第47页 |
·基于模拟退火的启发式搜索算法 | 第47-49页 |
·实验 | 第49-50页 |
·实验背景 | 第49页 |
·实验结果及性能比较 | 第49-50页 |
·小结 | 第50-51页 |
第七章 基于巩固学习的网络蜘蛛原型系统的实现 | 第51-54页 |
·系统设计 | 第51-52页 |
·关键问题的处理 | 第52页 |
·链接价值的计算 | 第52页 |
·学习策略与搜索策略 | 第52页 |
·主要功能的实现 | 第52-53页 |
·小结 | 第53-54页 |
结论 | 第54-56页 |
致谢 | 第56-57页 |
参考文献 | 第57-61页 |
附录A 发表论文情况 | 第61页 |