基于客流时间序列数据的深圳与上海地铁站点比较研究
发布时间:2021-06-26 04:44
随着世界范围内全球化影响的日益加深,世界各地不同的城市文化和城市建设在全球化与本土化相互碰撞融合的背景下,正逐渐的被更新和重组,城市趋同化现象日渐显著。但城市既受全球化影响,仍有本土地方性的特征。在全球化和本地化的双重影响下,不同城市间的地铁站点客流特征是否会体现出越来越多的共性,还是存在更多的个性,值得我们进行更深入的探索。当今,地铁作为承担日常出行活动的重要交通工具,记录了人们出行的普遍规律,而随着智能卡在公共交通领域的广泛应用,它已经成为分析人类行为和公共交通系统的最流行的工具之一。本文基于客流时间序列数据,对深圳和上海的地铁站点的客流变化特征比较研究。首先整理了国内外对城市比较、智能卡数据与出行行为、站点客流特征及周边环境、基于特征分解的时空行为等的相关研究,对文章中涉及的相关概念进行界定,并基于客流特征的相关理论研究展开了对论文的思路框架的构建。其次根据现有的理论及研究方法,对深圳和上海的客流特征进行提取,并根据客流特征对站点进行分类,根据分类结果文章从群体性共性站点、群体性个性站点、城市性共性站点和城市性个性站点四个方面对两个城市实际站点的客流变化特征进行了比较分析。最后结...
【文章来源】:哈尔滨工业大学黑龙江省 211工程院校 985工程院校
【文章页数】:120 页
【学位级别】:硕士
【部分图文】:
研究思路框架
哈尔滨工业大学工学硕士学位论文-20-图2-2轨道交通客流时间分布曲线[65]342.4.1.2基于特征分解的客流时间分布研究方法客流时间序列数据一般为复杂的多维矩阵,且矩阵中包含有很多重复性的特征,为了对客流数据的规律性特征进行深入的分析解读,应选取相应的研究方法。矩阵分解方法(MatrixDecompositionMethods)是研究乘客时间序列数据结构特征的常用方法,其本质是将原本大型的矩阵近似为若干小型矩阵的乘积,特征分解(Eigendecomposition,ED)是矩阵分解中应用较为广泛的方法之一。特征分解可以将大型矩阵数据进行有效的降维,使问题得以简化、易于分析。特征向量和特征值是与方阵相关联的数和向量,它们共同提供了矩阵的特征分解,从而分析了该矩阵的结构[49]305。特征向量和特征值也被称为特征向量和潜在根或特征方程。矩阵的特征值集合也称为其频谱(Spectrum)。对于任意长宽m×n的矩阵A,其特征向量、特征值与其自身的数学关系见公式(2-1):Acorrν=λν式中Acorr——原矩阵A的相关性矩阵;v——特征向量;λ——特征值。公式中存在的特征向量v之间均是线性无关的,且矩阵的一组特征向量是一组正交的向量,如图2-3所示。通过特征分解所获取的特征值和特征向量分别为λ1,λ2,λ3…λn,和α1,α2,α3…αn。特征值可组成n×n的对角矩阵Σ,特征向量αi可组成n×n的正交矩阵V,且特征值矩阵的行与向量矩阵的列分别对应,通常按特征值贡献大小排序为λ1≥λ2≥λ3≥…≥λn,其对应主成分的重要程度也与之对应。(2-1)
哈尔滨工业大学工学硕士学位论文-21-a)b)图2-3一个矩阵的两个特征向量[49]306设V为矩阵A及其主成分的负载,它的列则为特征向量,其关系见公式(2-2):Z=AV在运用特征分解方法时,往往会对一般矩阵进行矩阵的转化,使其成为可以进行数据处理的方阵,即系数矩阵,在这一转化过程中不影响原始数据的方差,使数据简化易于分析。前文已经提及,矩阵的一组向量为正交的向量,这也就表明特征向量矩阵的逆矩阵与其转置矩阵相等,即V1=VT。继而可得公式(2-3):A=ZVT根据特征值和特征向量的属性,z1为捕获n个变量的最大方差,这意味着z1包含n个变量的最常见信息。以此类推,z则是包含原始变量的第i个最大方差。由于具有最大特征值的前几个主成分包含原始变量的最大方差,因此可以用前几个主成分和相应的载荷来近似原始矩阵,其近似关系见公式(2-4):A=ZVT≈(z1,z2,…,zp)(α1,α2,…,αp)T(p<n)式中A——原矩阵;Z——长宽为m×n的主成分矩阵;V——长宽为n×n的特征向量矩阵;zi——第i个主成分向量;αi——第i个特征向量;P——能够有效对原始数据进行还原的主成分的个数。在运用特征分解探索地铁站点客流变化的共同模式时,可以使用VT来评估每个主成分的重要程度,这就将一个复杂的大型多维矩阵转化为了少数的小型矩阵对原始数据进行还原解释。(2-4)(2-2)(2-3)
本文编号:3250651
【文章来源】:哈尔滨工业大学黑龙江省 211工程院校 985工程院校
【文章页数】:120 页
【学位级别】:硕士
【部分图文】:
研究思路框架
哈尔滨工业大学工学硕士学位论文-20-图2-2轨道交通客流时间分布曲线[65]342.4.1.2基于特征分解的客流时间分布研究方法客流时间序列数据一般为复杂的多维矩阵,且矩阵中包含有很多重复性的特征,为了对客流数据的规律性特征进行深入的分析解读,应选取相应的研究方法。矩阵分解方法(MatrixDecompositionMethods)是研究乘客时间序列数据结构特征的常用方法,其本质是将原本大型的矩阵近似为若干小型矩阵的乘积,特征分解(Eigendecomposition,ED)是矩阵分解中应用较为广泛的方法之一。特征分解可以将大型矩阵数据进行有效的降维,使问题得以简化、易于分析。特征向量和特征值是与方阵相关联的数和向量,它们共同提供了矩阵的特征分解,从而分析了该矩阵的结构[49]305。特征向量和特征值也被称为特征向量和潜在根或特征方程。矩阵的特征值集合也称为其频谱(Spectrum)。对于任意长宽m×n的矩阵A,其特征向量、特征值与其自身的数学关系见公式(2-1):Acorrν=λν式中Acorr——原矩阵A的相关性矩阵;v——特征向量;λ——特征值。公式中存在的特征向量v之间均是线性无关的,且矩阵的一组特征向量是一组正交的向量,如图2-3所示。通过特征分解所获取的特征值和特征向量分别为λ1,λ2,λ3…λn,和α1,α2,α3…αn。特征值可组成n×n的对角矩阵Σ,特征向量αi可组成n×n的正交矩阵V,且特征值矩阵的行与向量矩阵的列分别对应,通常按特征值贡献大小排序为λ1≥λ2≥λ3≥…≥λn,其对应主成分的重要程度也与之对应。(2-1)
哈尔滨工业大学工学硕士学位论文-21-a)b)图2-3一个矩阵的两个特征向量[49]306设V为矩阵A及其主成分的负载,它的列则为特征向量,其关系见公式(2-2):Z=AV在运用特征分解方法时,往往会对一般矩阵进行矩阵的转化,使其成为可以进行数据处理的方阵,即系数矩阵,在这一转化过程中不影响原始数据的方差,使数据简化易于分析。前文已经提及,矩阵的一组向量为正交的向量,这也就表明特征向量矩阵的逆矩阵与其转置矩阵相等,即V1=VT。继而可得公式(2-3):A=ZVT根据特征值和特征向量的属性,z1为捕获n个变量的最大方差,这意味着z1包含n个变量的最常见信息。以此类推,z则是包含原始变量的第i个最大方差。由于具有最大特征值的前几个主成分包含原始变量的最大方差,因此可以用前几个主成分和相应的载荷来近似原始矩阵,其近似关系见公式(2-4):A=ZVT≈(z1,z2,…,zp)(α1,α2,…,αp)T(p<n)式中A——原矩阵;Z——长宽为m×n的主成分矩阵;V——长宽为n×n的特征向量矩阵;zi——第i个主成分向量;αi——第i个特征向量;P——能够有效对原始数据进行还原的主成分的个数。在运用特征分解探索地铁站点客流变化的共同模式时,可以使用VT来评估每个主成分的重要程度,这就将一个复杂的大型多维矩阵转化为了少数的小型矩阵对原始数据进行还原解释。(2-4)(2-2)(2-3)
本文编号:3250651
本文链接:https://www.wllwen.com/kejilunwen/daoluqiaoliang/3250651.html