基于强化学习的多无人车智能决策方法研究
发布时间:2024-03-14 03:58
近年来,以卷积神经网络(CNN)为代表的深度学习算法在目标识别和检测等多种任务中表现出显著的性能,成为许多研究问题的解决方案。然而,复杂任务的学习能力对人工智能的发展至关重要,一般来说,神经网络难以做到这一点,人们普遍认为灾难性遗忘是连接主义模型的一个不可避免的特征,目前基于深度神经网络的人工智能系统是为学习狭小范围任务而设计的,这样训练的智能体是不具有持续学习能力的,实现通用人工智能的关键步骤是获得连续学习的能力,也就是说,一个智能体(agent)必须能在不遗忘旧任务的执行方法的同时习得如何执行新任务。为了训练可持续学习的智能体,亟待解决的问题是解决灾难性遗忘问题。无人车需要在各种复杂场景下行驶,并需要在不同场景中保证车辆的安全性。因此我们希望无人车能够在各种场景下执行任务时不断的获得新的技能,而不要忘记已经训练掌握的技能。本文以多无人车为测试环境,通过添加记忆机制来解决灾难性遗忘问题,防止车辆由于不同场景间知识遗忘所带了的安全隐患。在这里我们给出了一种多车场景学习框架,允许无人车对不同场景进行记忆。防止无人车在新场景学习过程中产生原有场景所学知识的遗忘,从而使无人车更好地学习新任务...
【文章页数】:59 页
【学位级别】:硕士
【文章目录】:
摘要
Abstract
1 绪论
1.1 研究背景
1.2 研究目的与意义
1.3 国内外研究现状
1.3.1 强化学习现状
1.3.2 自动驾驶
1.3.3 无人车研究现状
1.4 论文的主要内容与组织结构
2 相关研究基础
2.1 强化学习
2.1.1 强化学习主要内容
2.1.2 TD差分
2.1.3 强化学习策略选择
2.2 自适应共振网络
2.2.1 自适应共振网络ART1
2.2.2 Fuzzy ART神经网络
2.2.3 Fuzzy ART学习过程
2.3 深度学习
2.3.1 前馈网络及反向传播
2.3.2 激活函数
2.4 本章小结
3 基于经验共享的多车加速学习
3.1 Deep Q-Learning与经验共享
3.1.1 Deep Q-Learning
3.1.2 共享经验
3.2 基于经验共享的加速训练
3.3 仿真环境
3.4 仿真实验及结果
3.5 本章小结
4 多车场景学习
4.1 TD-FALCON框架
4.1.1 FALCON框架
4.1.2 TD-FALCON网络学习过程
4.2 多车场景模型
4.3 仿真实验及结果
4.4 本章小结
结论
参考文献
致谢
本文编号:3928029
【文章页数】:59 页
【学位级别】:硕士
【文章目录】:
摘要
Abstract
1 绪论
1.1 研究背景
1.2 研究目的与意义
1.3 国内外研究现状
1.3.1 强化学习现状
1.3.2 自动驾驶
1.3.3 无人车研究现状
1.4 论文的主要内容与组织结构
2 相关研究基础
2.1 强化学习
2.1.1 强化学习主要内容
2.1.2 TD差分
2.1.3 强化学习策略选择
2.2 自适应共振网络
2.2.1 自适应共振网络ART1
2.2.2 Fuzzy ART神经网络
2.2.3 Fuzzy ART学习过程
2.3 深度学习
2.3.1 前馈网络及反向传播
2.3.2 激活函数
2.4 本章小结
3 基于经验共享的多车加速学习
3.1 Deep Q-Learning与经验共享
3.1.1 Deep Q-Learning
3.1.2 共享经验
3.2 基于经验共享的加速训练
3.3 仿真环境
3.4 仿真实验及结果
3.5 本章小结
4 多车场景学习
4.1 TD-FALCON框架
4.1.1 FALCON框架
4.1.2 TD-FALCON网络学习过程
4.2 多车场景模型
4.3 仿真实验及结果
4.4 本章小结
结论
参考文献
致谢
本文编号:3928029
本文链接:https://www.wllwen.com/kejilunwen/zidonghuakongzhilunwen/3928029.html