致谢 | 第7-8页 |
摘要 | 第8-9页 |
ABSTRACT | 第9-10页 |
第一章 绪论 | 第15-26页 |
1.1 研究背景 | 第15-17页 |
1.2 WSN研究及其应用 | 第17-19页 |
1.3 强化学习基本概念 | 第19-23页 |
1.3.1 强化学习原理 | 第19-20页 |
1.3.2 马尔科夫决策过程 | 第20-21页 |
1.3.3 强化学习基本要素 | 第21-22页 |
1.3.4 Q学习概述 | 第22-23页 |
1.4 国内外研究现状 | 第23-24页 |
1.5 论文结构安排 | 第24-26页 |
第二章 基于分布式Q学习的WSN节点任务调度研究 | 第26-37页 |
2.1 问题描述 | 第26-30页 |
2.1.1 Q学习框架映射 | 第26-27页 |
2.1.2 目标函数 | 第27-30页 |
2.2 任务调度算法框架 | 第30-36页 |
2.2.1 基本元素 | 第30-31页 |
2.2.2 ε-greedy方法 | 第31-32页 |
2.2.3 值函数逼近器 | 第32-34页 |
2.2.4 算法描述和分析 | 第34-36页 |
2.3 本章小结 | 第36-37页 |
第三章 基于改进SVM逼近的独立型Q学习的WSN节点任务调度算法 | 第37-55页 |
3.1 模型建立 | 第37-42页 |
3.1.1 学习模型 | 第37-42页 |
3.1.2 任务模型 | 第42页 |
3.2 任务调度算法 | 第42-44页 |
3.2.1 状态空间 | 第43页 |
3.2.2 回报函数 | 第43页 |
3.2.3 探索和利用策略 | 第43-44页 |
3.3 算法分析 | 第44-45页 |
3.4 实验与仿真 | 第45-53页 |
3.5 本章小结 | 第53-55页 |
第四章 基于全局值函数的分布式Q学习的WSN任务调度算法 | 第55-66页 |
4.1 问题描述 | 第55页 |
4.2 模型建立 | 第55-59页 |
4.2.1 移动目标监测任务模型 | 第56-57页 |
4.2.2 基于全局值函数的分布式Q学习模型 | 第57-59页 |
4.3 基于全局值函数Q学习任务调度算法 | 第59-61页 |
4.3.1 基本元素 | 第59-60页 |
4.3.2 学习速度因子 | 第60页 |
4.3.3 算法步骤 | 第60-61页 |
4.4 仿真分析 | 第61-65页 |
4.5 本章小结 | 第65-66页 |
第五章 总结和展望 | 第66-68页 |
5.1 总结 | 第66-67页 |
5.2 展望 | 第67-68页 |
参考文献 | 第68-72页 |
攻读硕士学位期间的学术活动及成果情况 | 第72-73页 |