| 摘要 | 第1-3页 |
| ABSTRACT | 第3-5页 |
| 目录 | 第5-8页 |
| 第一章 绪论 | 第8-13页 |
| ·研究背景 | 第8-9页 |
| ·研究进展 | 第9-10页 |
| ·本文所做的工作 | 第10-13页 |
| 第二章 预备知识 | 第13-26页 |
| ·巩固学习 | 第13-18页 |
| ·巩固学习的基本概念 | 第13-16页 |
| ·巩固学习模型 | 第13-14页 |
| ·马尔可夫决策过程 | 第14页 |
| ·巩固学习算法 | 第14-16页 |
| ·巩固学习的发展与研究状况 | 第16-18页 |
| ·网络蜘蛛搜索策略比较研究 | 第18-25页 |
| ·专业搜索引擎网络蜘蛛模型 | 第18-19页 |
| ·网络蜘蛛搜索策略的分类 | 第19-24页 |
| ·基于立即回报价值评价的搜索策略 | 第19-22页 |
| ·基于内容评价的搜索策略 | 第19-20页 |
| ·基于链接结构评价的搜索策略 | 第20-22页 |
| ·基于未来回报价值评价的搜索策略 | 第22-24页 |
| ·网络蜘蛛搜索策略比较 | 第24-25页 |
| ·小结 | 第25-26页 |
| 第三章 基于隐偏向信息学习的巩固学习算法研究 | 第26-36页 |
| ·引言 | 第26页 |
| ·基于隐偏向信息学习的巩固学习模型及算法 | 第26-35页 |
| ·问题描述 | 第26-27页 |
| ·隐偏向信息学习 | 第27-28页 |
| ·隐偏向信息 | 第27页 |
| ·代理体的行动选择机制 | 第27-28页 |
| ·基于隐偏向信息学习的Feature-SARSA(λ)算法 | 第28-31页 |
| ·局部状态特征与特征抽取函数 | 第28-29页 |
| ·策略调整函数与Feature-SARSA(λ)算法 | 第29-30页 |
| ·复杂性分析 | 第30-31页 |
| ·实验 | 第31-35页 |
| ·推箱任务(Box Pushing Task) | 第31-32页 |
| ·SARSA(O)和Feature-SARSA(O)算法实验结果比较 | 第32-34页 |
| ·SARSA(λ)和Feature-SARSA(λ)算法实验结果比较 | 第34-35页 |
| ·小结 | 第35-36页 |
| 第四章 基于隐偏向信息学习的网络蜘蛛学习算法研究 | 第36-41页 |
| ·引言 | 第36页 |
| ·相关描述 | 第36页 |
| ·局部状态特征 | 第36-37页 |
| ·基于偏向信息学习的网络蜘蛛学习算法 | 第37-38页 |
| ·实验 | 第38-40页 |
| ·小结 | 第40-41页 |
| 第五章 基于未来回报信度递减的网络蜘蛛搜索策略研究 | 第41-47页 |
| ·引言 | 第41页 |
| ·传统网络蜘蛛搜索策略比较 | 第41-42页 |
| ·基于巩固学习的“启发式”网络蜘蛛模型及搜索算法 | 第42-44页 |
| ·启发式网络蜘蛛模型 | 第42页 |
| ·信任指派与价值置信函数 | 第42-43页 |
| ·基于未来回报信度递减的启发式搜索算法 | 第43-44页 |
| ·实验 | 第44-46页 |
| ·实验背景 | 第44页 |
| ·实验结果及性能比较 | 第44-46页 |
| ·小结 | 第46-47页 |
| 第六章 基于模拟退火的网络蜘蛛搜索策略研究 | 第47-51页 |
| ·引言 | 第47页 |
| ·网络蜘蛛搜索空间的特点 | 第47页 |
| ·基于模拟退火的启发式搜索算法 | 第47-49页 |
| ·实验 | 第49-50页 |
| ·实验背景 | 第49页 |
| ·实验结果及性能比较 | 第49-50页 |
| ·小结 | 第50-51页 |
| 第七章 基于巩固学习的网络蜘蛛原型系统的实现 | 第51-54页 |
| ·系统设计 | 第51-52页 |
| ·关键问题的处理 | 第52页 |
| ·链接价值的计算 | 第52页 |
| ·学习策略与搜索策略 | 第52页 |
| ·主要功能的实现 | 第52-53页 |
| ·小结 | 第53-54页 |
| 结论 | 第54-56页 |
| 致谢 | 第56-57页 |
| 参考文献 | 第57-61页 |
| 附录A 发表论文情况 | 第61页 |