首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--计算机网络论文--一般性问题论文

移动P2P环境下信任模型与激励机制的研究

摘要第4-5页
Abstract第5页
第一章 绪论第8-15页
    1.1 研究背景及意义第8-9页
    1.2 研究现状第9-13页
        1.2.1 信任模型第9-11页
        1.2.2 激励机制第11-13页
    1.3 主要研究内容第13页
    1.4 论文组织结构第13-15页
第二章 相关知识第15-23页
    2.1 移动P2P网络概述第15-16页
        2.1.1 移动P2P网络的定义第15页
        2.1.2 移动P2P网络的体系结构第15-16页
    2.2 移动P2P网络中的问题第16-17页
        2.2.1 移动P2P网络中的安全隐私问题第16页
        2.2.2 移动P2P网络中“搭便车”问题第16-17页
    2.3 信任模型相关知识第17-20页
        2.3.1 信任的定义第17页
        2.3.2 信任管理机制的划分第17-18页
        2.3.3 移动P2P网络中信任模型的相关知识第18-19页
        2.3.4 信任模型的设计框架第19页
        2.3.5 信任模型中的关键问题第19-20页
    2.4 激励机制中的关键问题第20-21页
    2.5 本章小结第21-23页
第三章 基于社会信任补充的信任模型第23-34页
    3.1 节点历史交易信息缺失情况下信任值计算第23-26页
        3.1.1 现有的解决方案第23-24页
        3.1.2 社会信任第24-25页
        3.1.3 社会信任计算第25-26页
    3.2 节点历史交易信息已知情况下信任值计算第26-30页
        3.2.1 直接信任值计算第26-27页
        3.2.2 推荐信任值计算第27-28页
        3.2.3 可信推荐节点集第28-30页
        3.2.4 综合信任值计算第30页
    3.3 仿真实现及分析第30-32页
        3.3.1 仿真环境及参数设置第30-31页
        3.3.2 节点历史交易信息未知仿真第31-32页
        3.3.3 恶意节点共谋行为仿真第32页
    3.4 本章小结第32-34页
第四章 基于模糊Q学习算法的激励机制第34-47页
    4.1 背景知识第34-37页
        4.1.1 Q学习第34-35页
        4.1.2 模糊推理系统第35-36页
        4.1.3 博弈论第36-37页
    4.2 基于神经网络的模糊Q学习算法第37-41页
    4.3 基于模糊Q学习进化博弈的激励机制第41-44页
        4.3.1 移动P2P网络节点之间博弈矩阵第41-42页
        4.3.2 纳什均衡第42-43页
        4.3.3 Q学习决策第43-44页
    4.4 仿真与分析第44-46页
        4.4.1 仿真环境及参数设置第44页
        4.4.2 模糊Q学习进化博弈决策模型Q值收敛速度第44-45页
        4.4.3 网络中自私行为节点数目变化第45-46页
    4.5 本章小结第46-47页
第五章 结束语第47-49页
    5.1 总结第47-48页
    5.2 不足与展望第48-49页
参考文献第49-52页
附录 攻读硕士期间撰写的论文第52-53页
致谢第53页

论文共53页,点击 下载论文
上一篇:基于时间序列的语义Web服务组合QoS属性预测研究
下一篇:未来网络智慧缓存机制的研究