基于智能手机传感器的人体运动状态识别研究
发布时间:2020-12-16 11:16
近年来,室内定位问题已成为国内外相关领域研究人员越来越感兴趣的研究内容,对定位精度的要求也越来越高。目前,由于城市中大多数建筑物都是多层建筑,而先前对许多室内定位的有关问题研究多基于建筑物的单层定位。要实现多层建筑的室内定位,关键是要对定位问题中的楼层变化进行检测。为了解决这一检测问题,实现多层建筑的室内定位以及多层建筑物的轨迹融合,可利用基于手机惯性传感器数据的运动状态识别来分类识别用户的各种室内运动状态进而检测楼层的变化。因此,如何基于高效的机器学习算法对室内运动状态进行识别,进而提高多层室内定位精度已成为大家关注和研究的热点问题。针对人体运动状态识别(HAR,Human activity recognition)问题,目前国内外主要有两个研究方向:基于视觉的运动状态识别(Vision-based activity recognition)和基于传感器的运动状态识别(Sensor-based activity recognition)。与基于视觉的运动状态识别相比,基于传感器的运动状态识别因其基本不依赖外部环境和较少的涉及隐私问题,近年来获得了业界广泛的关注,学界对此进行了大量的研...
【文章来源】:吉林大学吉林省 211工程院校 985工程院校 教育部直属院校
【文章页数】:60 页
【学位级别】:硕士
【部分图文】:
图2.1支持向量与间隔若训练样本集为线性不可分时,可将样本从原本的空间映射到一个更高维的空间,
第2章理论基础92.2.2多层感知机多层感知机(MLP,Multi-Layerperception)也叫人工神经网络(ANN,Artificialneuralnetwork),它是由三层神经元(Neuron)组成:输入层(Inputlayer),隐藏层(Hiddenlayer)和输出层(Outputlayer)[43]。隐藏层和输出层神经元都是拥有激活函数的功能神经元。多层感知机的基本结构如图2.2所示。从图2.2中可以看到,多层感知机每一层神经元之间是全连接的,即上一层的每个神经元都与下一层的所有神经元连接。图2.2多层感知机基本结构如果输入层为n维向量,则输入为n个神经元,这些神经元通过带有权重的连接向隐藏层进行传递,隐藏层接收到输入层的输入后与阈值相比较,通过激活函数(Activationfunction)后产生隐藏层神经元的输出,作为输出层的输入,然后经历相同的过程后得到输出层的输出。激活函数的作用是为了增加神经网络模型的非线性,常见的激活函数类型有sigmod函数、tanh函数、relu函数等[44]。考虑到各个激活函数的计算代价,在本文中,我们使用relu函数,其表达式为f(x)max(0,x)(2.5)在图2.2中,隐藏层第h个神经元的输入为1dhihiivx(2.6)输出层第j个神经元的输入为1qjhjhhwb(2.7)
第2章理论基础11样本来表示。不同于其它算法的是它没有训练过程,所以KNN也称为懒惰学习。当有新的样本实例时,直接在当前的训练数据集中找k个与其最近的样本点,把这个新的实例分配给这k个样本点中大部分样本点所属的类别。在类的标定边界比较整齐的情况下应用KNN分类的准确率很高。KNN算法需要人为设置k的取值,即需要找多个最近的实例。k值不同,分类的结果也可能不同。图2.3是利用KNN算法的分类示意图。如图所示,训练数据集分为3类,k5,当出现一个新的测试样本(图中灰色圆点)时,找到距该测试样本最近的5个训练样本点,通过投票法确定该样本的类别,为第1类。KNN的基本流程为[45]:(1)计算测试数据与各训练数据之间的距离。常见的距离度量方法有欧几里得距离、余弦值、相关度和曼哈顿距离等;(2)按照距离的递增关系进行排序;(3)选取距离最小的k个样本点;(4)确定k个样本点的所属类别的出现频率;(5)返回k个样本点中出现频率最高的类别作为测试数据的预测分类。图2.3KNN算法分类示意图(k5)KNN作为最简单的分类算法思路简单且容易实现。但是存在一些不足:一是当训练数据集容量很大时,它需要大量的存储空间来存储测试数据与所有训练数据样本的距离,同时也很耗时,计算成本很大;二是KNN对于随机分布的数据集分类效果较差;三是对于样本不均衡的数据也不能达到满意的分类效果,需要进行改进。此时可以对k个样本点赋予权重,通过权重大小进行测试数据的分类。
【参考文献】:
硕士论文
[1]机器学习在心电数据分析中的研究和应用[D]. 张凯.北方工业大学 2019
本文编号:2920041
【文章来源】:吉林大学吉林省 211工程院校 985工程院校 教育部直属院校
【文章页数】:60 页
【学位级别】:硕士
【部分图文】:
图2.1支持向量与间隔若训练样本集为线性不可分时,可将样本从原本的空间映射到一个更高维的空间,
第2章理论基础92.2.2多层感知机多层感知机(MLP,Multi-Layerperception)也叫人工神经网络(ANN,Artificialneuralnetwork),它是由三层神经元(Neuron)组成:输入层(Inputlayer),隐藏层(Hiddenlayer)和输出层(Outputlayer)[43]。隐藏层和输出层神经元都是拥有激活函数的功能神经元。多层感知机的基本结构如图2.2所示。从图2.2中可以看到,多层感知机每一层神经元之间是全连接的,即上一层的每个神经元都与下一层的所有神经元连接。图2.2多层感知机基本结构如果输入层为n维向量,则输入为n个神经元,这些神经元通过带有权重的连接向隐藏层进行传递,隐藏层接收到输入层的输入后与阈值相比较,通过激活函数(Activationfunction)后产生隐藏层神经元的输出,作为输出层的输入,然后经历相同的过程后得到输出层的输出。激活函数的作用是为了增加神经网络模型的非线性,常见的激活函数类型有sigmod函数、tanh函数、relu函数等[44]。考虑到各个激活函数的计算代价,在本文中,我们使用relu函数,其表达式为f(x)max(0,x)(2.5)在图2.2中,隐藏层第h个神经元的输入为1dhihiivx(2.6)输出层第j个神经元的输入为1qjhjhhwb(2.7)
第2章理论基础11样本来表示。不同于其它算法的是它没有训练过程,所以KNN也称为懒惰学习。当有新的样本实例时,直接在当前的训练数据集中找k个与其最近的样本点,把这个新的实例分配给这k个样本点中大部分样本点所属的类别。在类的标定边界比较整齐的情况下应用KNN分类的准确率很高。KNN算法需要人为设置k的取值,即需要找多个最近的实例。k值不同,分类的结果也可能不同。图2.3是利用KNN算法的分类示意图。如图所示,训练数据集分为3类,k5,当出现一个新的测试样本(图中灰色圆点)时,找到距该测试样本最近的5个训练样本点,通过投票法确定该样本的类别,为第1类。KNN的基本流程为[45]:(1)计算测试数据与各训练数据之间的距离。常见的距离度量方法有欧几里得距离、余弦值、相关度和曼哈顿距离等;(2)按照距离的递增关系进行排序;(3)选取距离最小的k个样本点;(4)确定k个样本点的所属类别的出现频率;(5)返回k个样本点中出现频率最高的类别作为测试数据的预测分类。图2.3KNN算法分类示意图(k5)KNN作为最简单的分类算法思路简单且容易实现。但是存在一些不足:一是当训练数据集容量很大时,它需要大量的存储空间来存储测试数据与所有训练数据样本的距离,同时也很耗时,计算成本很大;二是KNN对于随机分布的数据集分类效果较差;三是对于样本不均衡的数据也不能达到满意的分类效果,需要进行改进。此时可以对k个样本点赋予权重,通过权重大小进行测试数据的分类。
【参考文献】:
硕士论文
[1]机器学习在心电数据分析中的研究和应用[D]. 张凯.北方工业大学 2019
本文编号:2920041
本文链接:https://www.wllwen.com/kejilunwen/xinxigongchenglunwen/2920041.html