基于机器学习的信道译码算法研究
发布时间:2023-05-22 01:12
通信系统中的信道编码系统通过对原始信息进行随机化并加入冗余信息的方式来增加信息传递的可靠性。过去的信道码译码算法多是通过纯粹的数学公式推导得出。由于如今人类掌握的数学工具的匮乏与计算机算力的限制,传统的信道译码算法往往需要对模型进行简化,对计算进行近似,这样处理的好处是在可接受的计算复杂度下完成译码,但同时也损失了准确度。当下机器学习算法在多种领域都有了可实用的表现,译码问题本质上可以看作是一个二分类问题来进行研究,其任务为将接受到的被信道污染的数据通过一个分类函数映射到0、1两个值上。本文研究内容为使用机器学习的方法对这个分类函数进行拟合,研究对象为5G通信中控制信道采用的polar码与4G通信中采用的turbo码。本文主要包括以下三点的创新:第一,针对现有polar码的SCL译码算法为串行译码算法,并行性较差的缺点,结合神经网络在层内可实现全并行的特点,本文提出一种针对polar码的全新的卷积神经网络译码器,该译码器利用polar编码时相异或的比特相关性更强的特性设计卷积核,使用七层神经网络可以获得与现有译码器相当的性能,但计算复杂度相比前人提出的全连接神经网络更低,且具有更强的泛...
【文章页数】:90 页
【学位级别】:硕士
【文章目录】:
摘要
abstract
缩略词表
第一章 绪论
1.1 研究工作的背景与意义
1.2 通信信道码技术研究历史与现状
1.3 本论文的结构安排
第二章 Polar码与Turbo码现行编译码算法介绍
2.1 Turbo码编译码算法
2.1.1 Turbo码编码原理
2.1.2 Turbo码的BCJR译码算法
2.2 Polar码编译码算法
2.2.1 Polar码中的信道极化原理及编码方式
2.2.2 Polar码的置信度传播(BP)译码算法
2.2.3 Polar码的串行抵消列表(SCL)译码算法
2.3 本章小结
第三章 神经网络及监督学习
3.1 神经网络的基本结构与分类
3.1.1 神经元模型
3.1.2 全连接神经网络
3.1.3 卷积神经网络
3.1.4 循环神经网络
3.2 常用激活函数
3.2.1 sigmoid函数
3.2.2 ReLU函数
3.2.3 elu函数
3.2.4 PReLU函数
3.3 监督学习的数据集的生成
3.3.1 留出法
3.3.2 交叉验证法
3.4 本章小结
第四章 基于神经网络的polar译码算法
4.1 针对译码场景的训练集与测试集的生成
4.2 基于卷积神经网络的polar译码器
4.2.1 卷积层通道数对训练效果的影响
4.2.2 全连接层的层数对训练效果的影响
4.2.3 隐藏层的节点数对训练效果的影响
4.2.4 过拟合与dropout
4.2.5 损失函数的选择
4.2.6 激活函数的选择
4.2.7 CNN译码与传统译码算法性能比较
4.2.8 CNN译码器的泛化能力
4.2.9 CNN译码器与全连接神经网络译码器对比
4.3 基于循环神经网络的加权BP译码器
4.3.1 循环神经网络polar译码结构
4.3.2 循环神经网络polar译码性能
4.4 本章小结
第五章 基于卷积神经网络的turbo译码器
5.1 基于CNN的turbo译码器结构
5.2 CNN译码器不同卷积核与通道数对性能的影响
5.3 基于CNN的turbo译码器性能
5.4 本章小结
第六章 全文总结与展望
6.1 全文总结
6.2 后续工作展望
致谢
参考文献
学位论文答辩后勘误修订说明表
本文编号:3821713
【文章页数】:90 页
【学位级别】:硕士
【文章目录】:
摘要
abstract
缩略词表
第一章 绪论
1.1 研究工作的背景与意义
1.2 通信信道码技术研究历史与现状
1.3 本论文的结构安排
第二章 Polar码与Turbo码现行编译码算法介绍
2.1 Turbo码编译码算法
2.1.1 Turbo码编码原理
2.1.2 Turbo码的BCJR译码算法
2.2 Polar码编译码算法
2.2.1 Polar码中的信道极化原理及编码方式
2.2.2 Polar码的置信度传播(BP)译码算法
2.2.3 Polar码的串行抵消列表(SCL)译码算法
2.3 本章小结
第三章 神经网络及监督学习
3.1 神经网络的基本结构与分类
3.1.1 神经元模型
3.1.2 全连接神经网络
3.1.3 卷积神经网络
3.1.4 循环神经网络
3.2 常用激活函数
3.2.1 sigmoid函数
3.2.2 ReLU函数
3.2.3 elu函数
3.2.4 PReLU函数
3.3 监督学习的数据集的生成
3.3.1 留出法
3.3.2 交叉验证法
3.4 本章小结
第四章 基于神经网络的polar译码算法
4.1 针对译码场景的训练集与测试集的生成
4.2 基于卷积神经网络的polar译码器
4.2.1 卷积层通道数对训练效果的影响
4.2.2 全连接层的层数对训练效果的影响
4.2.3 隐藏层的节点数对训练效果的影响
4.2.4 过拟合与dropout
4.2.5 损失函数的选择
4.2.6 激活函数的选择
4.2.7 CNN译码与传统译码算法性能比较
4.2.8 CNN译码器的泛化能力
4.2.9 CNN译码器与全连接神经网络译码器对比
4.3 基于循环神经网络的加权BP译码器
4.3.1 循环神经网络polar译码结构
4.3.2 循环神经网络polar译码性能
4.4 本章小结
第五章 基于卷积神经网络的turbo译码器
5.1 基于CNN的turbo译码器结构
5.2 CNN译码器不同卷积核与通道数对性能的影响
5.3 基于CNN的turbo译码器性能
5.4 本章小结
第六章 全文总结与展望
6.1 全文总结
6.2 后续工作展望
致谢
参考文献
学位论文答辩后勘误修订说明表
本文编号:3821713
本文链接:https://www.wllwen.com/kejilunwen/xinxigongchenglunwen/3821713.html