专栏电商日志财经减肥爱情
投稿投诉
爱情常识
搭配分娩
减肥两性
孕期塑形
财经教案
论文美文
日志体育
养生学堂
电商科学
头戴业界
专栏星座
用品音乐

时序预测5深度学习算法介绍

  1概述
  深度学习方法是一种利用神经网络模型进行高级模式识别和自动特征提取的机器学习方法,近年来在时序预测领域取得了很好的成果。常用的深度学习模型包括循环神经网络(RNN)、长短时记忆网络(LSTM)、门控循环单元(GRU)、卷积神经网络(CNN)、注意力机制(Attention)和混合模型(Mix)等,与机器学习需要经过复杂的特征工程相比,这些模型通常只需要经数据预处理、网络结构设计和超参数调整等,即可端到端输出时序预测结果。深度学习算法能够自动学习时间序列数据中的模式和趋势,神经网络涉及隐藏层数、神经元数、学习率和激活函数等重要参数,对于复杂的非线性模式,深度学习模型有很好的表达能力。在应用深度学习方法进行时序预测时,需要考虑数据的平稳性和周期性,选择合适的模型和参数,进行训练和测试,并进行模型的调优和验证。
  2算法展示2。1RNN类
  在RNN中,每个时刻的输入和之前时刻的状态被映射到隐藏状态中,同时根据当前的输入和之前的状态,预测下一个时刻的输出。RNN的一个重要特性是可以处理变长的序列数据,因此非常适用于时序预测中的时间序列数据。另外,RNN还可以通过增加LSTM、GRU、SRU等门控机制来提高模型的表达能力和记忆能力。2。1。1RNN(1990)
  Paper:FindingStructureinTime
  RNN(循环神经网络)是一种强大的深度学习模型,经常被用于时间序列预测。RNN通过在时间上展开神经网络,将历史信息传递到未来,从而能够处理时间序列数据中的时序依赖性和动态变化。在RNN模型的构建中,LSTM和GRU模型常被使用,因为它们可以处理长序列,并具有记忆单元和门控机制,能够有效地捕捉时间序列中的时序依赖性。RNNmodelRNNModel(modelRNN,hiddendim60,dropout0,batchsize100,nepochs200,optimizerkwargs{lr:1e3},modelnameAirRNN,logtensorboardTrue,randomstate42,traininglength20,inputchunklength60,forceresetTrue,savecheckpointsTrue,)
  2。1。2LSTM(1997)
  Paper:LongShortTermMemory
  LSTM(长短期记忆)是一种常用的循环神经网络模型,经常被用于时间序列预测。相对于基本的RNN模型,LSTM具有更强的记忆和长期依赖能力,可以更好地处理时间序列数据中的时序依赖性和动态变化。在LSTM模型的构建中,关键的是对LSTM单元的设计和参数调整。LSTM单元的设计可以影响模型的记忆能力和长期依赖能力,参数的调整可以影响模型的预测准确性和鲁棒性。LSTMmodelRNNModel(modelLSTM,hiddendim60,dropout0,batchsize100,nepochs200,optimizerkwargs{lr:1e3},modelnameAirRNN,logtensorboardTrue,randomstate42,traininglength20,inputchunklength60,forceresetTrue,savecheckpointsTrue,)
  2。1。3GRU(2014)
  Paper:LearningPhraseRepresentationsusingRNNEncoderDecoderforStatisticalMachineTranslation
  GRU(门控循环单元)是一种常用的循环神经网络模型,与LSTM模型类似,也是专门用于处理时间序列数据的模型。GRU模型相对于LSTM模型来说,参数更少,运算速度也更快,但是仍然能够处理时间序列数据中的时序依赖性和动态变化。在GRU模型的构建中,关键的是对GRU单元的设计和参数调整。GRU单元的设计可以影响模型的记忆能力和长期依赖能力,参数的调整可以影响模型的预测准确性和鲁棒性。GRUmodelRNNModel(modelGRU,hiddendim60,dropout0,batchsize100,nepochs200,optimizerkwargs{lr:1e3},modelnameAirRNN,logtensorboardTrue,randomstate42,traininglength20,inputchunklength60,forceresetTrue,savecheckpointsTrue,)
  2。1。4SRU(2018)
  Paper:SimpleRecurrentUnitsforHighlyParallelizableRecurrence
  SRU(随机矩阵单元)是一种基于矩阵计算的循环神经网络模型,也是专门用于处理时间序列数据的模型。SRU模型相对于传统的LSTM和GRU模型来说,具有更少的参数和更快的运算速度,同时能够处理时间序列数据中的时序依赖性和动态变化。在SRU模型的构建中,关键的是对SRU单元的设计和参数调整。SRU单元的设计可以影响模型的记忆能力和长期依赖能力,参数的调整可以影响模型的预测准确性和鲁棒性。2。2CNN类
  CNN通过卷积层和池化层等操作可以自动提取时间序列数据的特征,从而实现时序预测。在应用CNN进行时序预测时,需要将时间序列数据转化为二维矩阵形式,然后利用卷积和池化等操作进行特征提取和压缩,最后使用全连接层进行预测。相较于传统的时序预测方法,CNN能够自动学习时间序列数据中的复杂模式和规律,同时具有更好的计算效率和预测精度。2。2。1WaveNet(2016)
  Paper:WAVENET:AGENERATIVEMODELFORRAWAUDIO
  WaveNet是由DeepMind团队在2016年提出的一种用于生成语音的神经网络模型,它的核心思想是利用卷积神经网络来模拟语音信号的波形,并使用残差连接和门控卷积操作来提高模型的表示能力。除了用于语音生成,WaveNet还可以应用于时序预测任务。在时序预测任务中,我们需要预测给定时间序列的下一个时间步的取值。通常情况下,我们可以将时间序列看作是一个一维向量,并将其输入到WaveNet模型中,得到下一个时间步的预测值。
  在WaveNet模型的构建中,关键的是对卷积层的设计和参数调整。卷积层的设计可以影响模型的表达能力和泛化能力,参数的调整可以影响模型的预测准确性和鲁棒性。2。2。2TCN(2018)
  Paper:AnEmpiricalEvaluationofGenericConvolutionalandRecurrentNetworksforSequenceModeling
  TCN(TemporalConvolutionalNetwork)是一种基于卷积神经网络的时序预测算法,其设计初衷是为了解决传统RNN(循环神经网络)在处理长序列时存在的梯度消失和计算复杂度高的问题相比于传统的RNN等序列模型,TCN利用卷积神经网络的特点,能够在更短的时间内对长期依赖进行建模,并且具有更好的并行计算能力。TCN模型由多个卷积层和残差连接组成,其中每个卷积层的输出会被输入到后续的卷积层中,从而实现对序列数据的逐层抽象和特征提取。TCN还采用了类似于ResNet的残差连接技术,可以有效地减少梯度消失和模型退化等问题,而空洞卷积可以扩大卷积核的感受野,从而提高模型的鲁棒性和准确性。
  TCN模型的结构如下图所示:
  TCN模型的预测过程包括以下几个步骤:输入层:接收时间序列数据的输入。卷积层:采用一维卷积对输入数据进行特征提取和抽象,每个卷积层包含多个卷积核,可以捕获不同尺度的时间序列模式。残差连接:类似于ResNet,通过将卷积层的输出与输入进行残差连接,可以有效地减少梯度消失和模型退化等问题,提高模型的鲁棒性。重复堆叠:重复堆叠多个卷积层和残差连接,逐层提取时间序列数据的抽象特征。池化层:在最后一个卷积层之后添加一个全局平均池化层,将所有特征向量进行平均,得到一个固定长度的特征向量。输出层:将池化层的输出通过一个全连接层进行输出,得到时间序列的预测值。
  TCN模型的优点包括:能够处理长序列数据,并且具有良好的并行性。通过引入残差连接和空洞卷积等技术,避免了梯度消失和过拟合的问题。相对于传统RNN模型,TCN模型具有更高的计算效率和预测准确率。模型构建TCNTCNModel(inputchunklength13,outputchunklength12,nepochs200,dropout0。1,dilationbase2,weightnormTrue,kernelsize5,numfilters3,randomstate0,)模型训练,无协变量TCN。fit(seriestrain,valseriesval,verboseTrue)模型训练,有协变量TCN。fit(seriestrain,pastcovariatestrainmonth,valseriesval,valpastcovariatesvalmonth,verboseTrue)模型推理backtestTCN。historicalforecasts(seriests,pastcovariatesmonthseries,start0。75,forecasthorizon10,retrainFalse,verboseTrue,)成果可视化ts。plot(labelactual)backtest。plot(labelbacktest(D10))plt。legend()plt。show()
  数据归一化对时序预测影响探究?
  原始数据是否按月份生成协变量,是否归一化,对最终时序预测效果影响重大,就本实验场景而言,原始数据为百分制更适用于无归一化有协变量方式,协变量需根据实际业务表现进行选择
  归一化无协变量
  归一化有协变量
  无归一化无协变量
  无归一化有协变量2。2。3DeepTCN(2019)
  Paper:ProbabilisticForecastingwithTemporalConvolutionalNeuralNetwork
  Code:deepTCN
  DeepTCN(DeepTemporalConvolutionalNetworks)是一种基于深度学习的时序预测模型,它是对传统TCN模型的改进和扩展。DeepTCN模型使用了一组1D卷积层和最大池化层来处理时序数据,并通过堆叠多个这样的卷积池化层来提取时序数据的不同特征。在DeepTCN模型中,每个卷积层都包含多个1D卷积核和激活函数,并且使用残差连接和批量归一化技术来加速模型的训练。DeepTCN模型的训练过程通常涉及以下几个步骤:数据预处理:将原始的时序数据进行标准化和归一化处理,以减小不同特征的尺度不一致对模型训练的影响。模型构建:使用多个1D卷积层和最大池化层构建DeepTCN模型,可以使用深度学习框架,如TensorFlow、PyTorch等来构建模型。模型训练:使用训练数据集对DeepTCN模型进行训练,并通过损失函数(如MSE、RMSE等)来度量模型的预测性能。在训练过程中,可以使用优化算法(如SGD、Adam等)来更新模型参数,并使用批量归一化和DeepTCN等技术来提高模型的泛化能力。模型评估:使用测试数据集对训练好的DEEPTCN模型进行评估,并计算模型的性能指标,如平均绝对误差(MAE)、平均绝对百分比误差(MAPE)等。
  模型训练输入输出长度对时序预测影响探究?
  就本实验场景而言,受原始数据样本限制,输入输出长度和batchsize无法过大调整,从性能角度建议选用大batchsize短输入输出方式短输入输出deeptcnTCNModel(inputchunklength13,outputchunklength12,kernelsize2,numfilters4,dilationbase2,dropout0。1,randomstate0,likelihoodGaussianLikelihood(),)长输入输出deeptcnTCNModel(inputchunklength60,outputchunklength20,kernelsize2,numfilters4,dilationbase2,dropout0。1,randomstate0,likelihoodGaussianLikelihood(),)长输入输出,大batchsizedeeptcnTCNModel(batchsize60,inputchunklength60,outputchunklength20,kernelsize2,numfilters4,dilationbase2,dropout0。1,randomstate0,likelihoodGaussianLikelihood(),)短输入输出,大batchsizedeeptcnTCNModel(batchsize60,inputchunklength13,outputchunklength12,kernelsize2,numfilters4,dilationbase2,dropout0。1,randomstate0,likelihoodGaussianLikelihood(),)
  短输入输出
  长输入输出
  长输入输出,大batchsize
  短输入输出,大batchsize2。3Attention类
  注意力机制(Attention)是一种用于解决序列输入数据中重要特征提取的机制,也被应用于时序预测领域。Attention机制可以自动关注时间序列数据中的重要部分,为模型提供更有用的信息,从而提高预测精度。在应用Attention进行时序预测时,需要利用Attention机制自适应地加权输入数据的各个部分,从而使得模型更加关注关键信息,同时减少无关信息的影响。Attention机制不仅可以应用于RNN等序列模型,也可以应用于CNN等非序列模型,是目前时序预测领域研究的热点之一。2。3。1Transformer(2017)
  Paper:AttentionIsAllYouNeed
  Transformer是一种广泛应用于自然语言处理(NLP)领域的神经网络模型,其本质是一种序列到序列(seq2seq)的模型。Transformer将序列中的每个位置视为一个向量,并使用多头自注意力机制和前馈神经网络来捕捉序列中的长程依赖性,从而使得模型能够处理变长序列和不定长序列。
  在时序预测任务中,Transformer模型可以将输入序列的时间步作为位置信息,将每个时间步的特征表示为一个向量,并使用编码器解码器框架进行预测。具体来说,可以将预测目标的前N个时间步作为编码器的输入,将预测目标的后M个时间步作为解码器的输入,并使用编码器解码器框架进行预测。编码器和解码器都是由多个Transformer模块堆叠而成,每个模块由多头自注意力层和前馈神经网络层组成。
  在训练过程中,可以使用均方误差(MSE)或平均绝对误差(MAE)等常见的损失函数来度量模型的预测性能,使用随机梯度下降(SGD)或Adam等优化算法来更新模型参数。在模型训练过程中,还可以使用学习率调整、梯度裁剪等技术来加速模型的训练和提高模型的性能。TransformermodelTransformerModel(inputchunklength30,outputchunklength15,batchsize32,nepochs200,modelnameairtransformer,nrepochsvalperiod10,dmodel16,nhead8,numencoderlayers2,numdecoderlayers2,dimfeedforward128,dropout0。1,optimizerkwargs{lr:1e2},activationrelu,randomstate42,savecheckpointsTrue,forceresetTrue,)
  2。3。2TFT(2019)
  Paper:TemporalFusionTransformersforInterpretableMultihorizonTimeSeriesForecasting
  TFT(TransformerbasedTimeSeriesForecasting)是一种基于Transformer模型的时序预测方法,它是由谷歌DeepMind团队于2019年提出的。TFT方法的核心思想是在Transformer模型中引入时间特征嵌入(TemporalFeatureEmbedding)和模态嵌入(ModalityEmbedding)。时间特征嵌入可以帮助模型更好地学习时序数据中的周期性和趋势性等特征,而模态嵌入可以将外部的影响因素(如气温、节假日等)与时序数据一起进行预测。
  TFT方法可以分为两个阶段:训练阶段和预测阶段。在训练阶段,TFT方法使用训练数据来训练Transformer模型,并使用一些技巧(如随机掩码、自适应学习率调整等)来提高模型的鲁棒性和训练效率。在预测阶段,TFT方法使用已训练好的模型来对未来时序数据进行预测。与传统的时序预测方法相比,TFT方法具有以下优点:可以更好地处理不同尺度的时间序列数据,因为Transformer模型可以对时间序列的全局和局部特征进行学习。可以同时考虑时间序列数据和外部影响因素,从而提高预测精度。可以通过端到端的训练方式直接学习预测模型,不需要手动提取特征。TFTmodelTransformerModel(inputchunklength30,outputchunklength15,batchsize32,nepochs200,modelnameairtransformer,nrepochsvalperiod10,dmodel16,nhead8,numencoderlayers2,numdecoderlayers2,dimfeedforward128,dropout0。1,optimizerkwargs{lr:1e2},activationrelu,randomstate42,savecheckpointsTrue,forceresetTrue,)
  2。3。3HT(2019)
  HT(HierarchicalTransformer)是一种基于Transformer模型的时序预测算法,由中国香港中文大学的研究人员提出。HT模型采用分层结构来处理具有多个时间尺度的时序数据,并通过自适应注意力机制来捕捉不同时间尺度的特征,以提高模型的预测性能和泛化能力。
  HT模型由两个主要组件组成:多尺度注意力模块和预测模块。在多尺度注意力模块中,HT模型通过自适应多头注意力机制来捕捉不同时间尺度的特征,并将不同时间尺度的特征融合到一个共同的特征表示中。在预测模块中,HT模型使用全连接层对特征表示进行预测,并输出最终的预测结果。
  HT模型的优点在于,它能够自适应地处理具有多个时间尺度的时序数据,并通过自适应多头注意力机制来捕捉不同时间尺度的特征,以提高模型的预测性能和泛化能力。此外,HT模型还具有较好的可解释性和泛化能力,可以适用于多种时序预测任务。2。3。4LogTrans(2019)
  Paper:EnhancingtheLocalityandBreakingtheMemoryBottleneckofTransformeronTimeSeriesForecasting
  Code:Autoformer
  LogTrans提出了一种Transformer时间序列预测改进方法,包括卷积自注意力(生成具有因果卷积的查询和密钥,将局部环境纳入注意力机制)和LogSparseTransformer(Transformer的内存效率较高的变体,用于降低长时间序列建模的内存成本),主要用于解决Transformer时间序列预测与位置无关的注意力和记忆瓶颈两个主要弱点。2。3。5DeepTTF(2020)
  DeepTTF(DeepTemporalTransformationalFactorization)是一种基于深度学习和矩阵分解的时序预测算法,由美国加州大学洛杉矶分校的研究人员提出。DeepTTF模型将时间序列分解为多个时间段,并使用矩阵分解技术对每个时间段进行建模,以提高模型的预测性能和可解释性。
  DeepTTF模型由三个主要组件组成:时间分段、矩阵分解和预测器。在时间分段阶段,DeepTTF模型将时间序列分为多个时间段,每个时间段包含连续的一段时间。在矩阵分解阶段,DeepTTF模型将每个时间段分解为两个低维矩阵,分别表示时间和特征之间的关系。在预测器阶段,DeepTTF模型使用多层感知机对每个时间段进行预测,并将预测结果组合成最终的预测序列。
  DeepTTF模型的优点在于,它能够有效地捕捉时间序列中的局部模式和全局趋势,同时保持较高的预测精度和可解释性。此外,DeepTTF模型还支持基于时间分段的交叉验证,以提高模型的鲁棒性和泛化能力。2。3。6PTST(2020)
  ProbabilisticTimeSeriesTransformer(PTST)是一种基于Transformer模型的时序预测算法,由GoogleBrain于2020年提出。该算法采用了概率图模型来提高时序预测的准确性和可靠性,能够在不确定性较大的时序数据中取得更好的表现。
  PTST模型主要由两个部分组成:序列模型和概率模型。序列模型采用Transformer结构,能够对时间序列数据进行编码和解码,并利用自注意力机制对序列中的重要信息进行关注和提取。概率模型则引入了变分自编码器(VAE)和卡尔曼滤波器(KF)来捕捉时序数据中的不确定性和噪声。
  具体地,PTST模型的序列模型使用TransformerEncoderDecoder结构来进行时序预测。Encoder部分采用多层自注意力机制来提取输入序列的特征,Decoder部分则通过自回归方式逐步生成输出序列。在此基础上,概率模型引入了一个随机变量,即时序数据的噪声项,它被建模为一个正态分布。同时,为了减少潜在的误差,概率模型还使用KF对序列进行平滑处理。
  在训练过程中,PTST采用了最大后验概率(MAP)估计方法,以最大化预测的概率。在预测阶段,PTST利用蒙特卡洛采样方法来从后验分布中抽样,以生成一组概率分布。同时,为了衡量预测的准确性,PTST还引入了均方误差和负对数似然(NLL)等损失函数。2。3。7Reformer(2020)
  Paper:Reformer:TheEfficientTransformer
  Reformer是一种基于Transformer模型的神经网络结构,它在时序预测任务中具有一定的应用前景。可以使用Reformer模型进行采样、自回归、多步预测和结合强化学习等方法来进行时序预测。在这些方法中,通过将已知的历史时间步送入模型,然后生成未来时间步的值。Reformer模型通过引入可分离的卷积和可逆层等技术,使得模型更加高效、准确和可扩展。总之,Reformer模型为时序预测任务提供了一种全新的思路和方法。2。3。8Informer(2020)
  Paper:Informer:BeyondEfficientTransformerforLongSequenceTimeSeriesForecasting
  Code:https:github。comzhouhaoyiInformer2020
  Informer是一种基于Transformer模型的时序预测方法,由北京大学深度学习与计算智能实验室于2020年提出。与传统的Transformer模型不同,Informer在Transformer模型的基础上引入了全新的结构和机制,以更好地适应时序预测任务。Informer方法的核心思想包括:长短时记忆(LSTM)编码器解码器结构:Informer引入了LSTM编码器解码器结构,可以在一定程度上缓解时间序列中的长期依赖问题。自适应长度注意力(AL)机制:Informer提出了自适应长度注意力机制,可以在不同时间尺度上自适应地捕捉序列中的重要信息。多尺度卷积核(MSCK)机制:Informer使用多尺度卷积核机制,可以同时考虑不同时间尺度上的特征。生成式对抗网络(GAN)框架:Informer使用GAN框架,可以通过对抗学习的方式进一步提高模型的预测精度。
  在训练阶段,Informer方法可以使用多种损失函数(如平均绝对误差、平均平方误差、L1Loss等)来训练模型,并使用Adam优化算法来更新模型参数。在预测阶段,Informer方法可以使用滑动窗口技术来预测未来时间点的值。
  Informer方法在多个时序预测数据集上进行了实验,并与其他流行的时序预测方法进行了比较。实验结果表明,Informer方法在预测精度、训练速度和计算效率等方面都表现出了很好的性能。2。3。9TAT(2021)
  TAT(TemporalAttentionTransformer)是一种基于Transformer模型的时序预测算法,由北京大学智能科学实验室提出。TAT模型在传统的Transformer模型基础上增加了时间注意力机制,能够更好地捕捉时间序列中的动态变化。
  TAT模型的基本结构与Transformer类似,包括多个Encoder和Decoder层。每个Encoder层包括多头自注意力机制和前馈网络,用于从输入序列中提取特征。每个Decoder层则包括多头自注意力机制、多头注意力机制和前馈网络,用于逐步生成输出序列。与传统的Transformer模型不同的是,TAT模型在多头注意力机制中引入了时间注意力机制,以捕捉时间序列中的动态变化。具体地,TAT模型将时间步信息作为额外的特征输入,然后利用多头注意力机制对时间步进行关注和提取,以辅助模型对序列中动态变化的建模。此外,TAT模型还使用了增量式训练技术,以提高模型的训练效率和预测性能。2。3。10NHT(2021)
  Paper:NestedHierarchicalTransformer:TowardsAccurate,DataEfficientandInterpretableVisualUnderstanding
  NHT(NestedHierarchicalTransformer)是一种用于时间序列预测的深度学习算法。它采用了一种嵌套的层次变换器结构,通过多层次嵌套的自注意力机制和时间重要性评估机制来实现对时间序列数据的精确预测。NHT模型通过引入更多的层次结构来改进传统的自注意力机制,同时使用时间重要性评估机制来动态地控制不同层次的重要性,以获得更好的预测性能。该算法在多个时间序列预测任务中表现出了优异的性能,证明了其在时序预测领域的潜力。2。3。11Autoformer(2021)
  Paper:Autoformer:DecompositionTransformerswithAutoCorrelationforLongTermSeriesForecasting
  Code:https:github。comthumlAutoformer
  AutoFormer是一种基于Transformer结构的时序预测模型。相比于传统的RNN、LSTM等模型,AutoFormer具有以下特点:自注意力机制:AutoFormer采用自注意力机制,可以同时捕捉时间序列的全局和局部关系,避免了长序列训练时的梯度消失问题。Transformer结构:AutoFormer使用了Transformer结构,可以实现并行计算,提高了训练效率。多任务学习:AutoFormer还支持多任务学习,可以同时预测多个时间序列,提高了模型的效率和准确性。
  AutoFormer模型的具体结构类似于Transformer,包括编码器和解码器两部分。编码器由多个自注意力层和前馈神经网络层组成,用于从输入序列中提取特征。解码器同样由多个自注意力层和前馈神经网络层组成,用于将编码器的输出转化为预测序列。此外,AutoFormer还引入了跨时间步的注意力机制,可以在编码器和解码器中自适应地选择时间步长。总体而言,AutoFormer是一种高效、准确的时序预测模型,适用于多种类型的时间序列预测任务。
  2。3。12Pyraformer(2022)
  Paper:Pyraformer:LowcomplexityPyramidalAttentionforLongrangeTimeSeriesModelingandForecasting
  Code:https:github。comantresearchPyraformer
  蚂蚁研究院提出一种新的基于金字塔注意力的Transformer(Pyraformer),以弥补捕获长距离依赖和实现低时间和空间复杂性之间的差距。具体来说,通过在金字塔图中传递基于注意力的信息来开发金字塔注意力机制,如图(d)所示。该图中的边可以分为两组:尺度间连接和尺度内连接。尺度间的连接构建了原始序列的多分辨率表示:最细尺度上的节点对应于原始时间序列中的时间点(例如,每小时观测值),而较粗尺度下的节点代表分辨率较低的特征(例如,每日、每周和每月模式)。这种潜在的粗尺度节点最初是通过粗尺度构造模块引入的。另一方面,尺度内边缘通过将相邻节点连接在一起来捕获每个分辨率下的时间相关性。因此,该模型通过以较粗的分辨率捕获此类行为,从而使信号穿越路径的长度更短,从而为远距离位置之间的长期时间依赖性提供了一种简洁的表示。此外,通过稀疏的相邻尺度内连接,在不同尺度上对不同范围的时间依赖性进行建模,可以显著降低计算成本。
  2。3。13FEDformer(2022)
  Paper:FEDformer:FrequencyEnhancedDecomposedTransformerforLongtermSeriesForecasting
  Code:https:github。comMAZiqingFEDformer
  FEDformer是一种基于Transformer模型的神经网络结构,专门用于分布式时序预测任务。该模型将时间序列数据分成多个小的分块,并通过分布式计算来加速训练过程。FEDformer引入了局部注意力机制和可逆注意力机制,使得模型能够更好地捕捉时序数据中的局部特征,并且具有更高的计算效率。此外,FEDformer还支持动态分区、异步训练和自适应分块等功能,使得模型具有更好的灵活性和可扩展性。
  2。3。14Crossformer(2023)
  Paper:Crossformer:TransformerUtilizingCrossDimensionDependencyforMultivariateTimeSeriesForecasting
  Code:https:github。comThinklabSJTUCrossformer
  Crossformer提出一个新的层次EncoderDecoder的架构,如下所示,由左边Encoder(灰色)和右边Decoder(浅橘色)组成,包含DimensionSegmentWise(DSW)embedding,TwoStageAttention(TSA)层和LinearProjection三部分。
  2。4Mix类
  将ETS、自回归、RNN、CNN和Attention等算法进行融合,可以利用它们各自的优点,提高时序预测的准确性和稳定性。这种融合的方法通常被称为混合模型。其中,RNN能够自动学习时间序列数据中的长期依赖关系;CNN能够自动提取时间序列数据中的局部特征和空间特征;Attention机制能够自适应地关注时间序列数据中的重要部分。通过将这些算法进行融合,可以使得时序预测模型更加鲁棒和准确。在实际应用中,可以根据不同的时序预测场景,选择合适的算法融合方式,并进行模型的调试和优化。2。4。1EncoderDecoderCNN(2017)
  Paper:DeepLearningforPrecipitationNowcasting:ABenchmarkandANewModel
  EncoderDecoderCNN也是一种可以用于时序预测任务的模型,它是一种融合了编码器和解码器的卷积神经网络。在这个模型中,编码器用于提取时间序列的特征,而解码器则用于生成未来的时间序列。具体而言,EncoderDecoderCNN模型可以按照以下步骤进行时序预测:输入历史时间序列数据,通过卷积层提取时间序列的特征。将卷积层输出的特征序列送入编码器,通过池化操作逐步降低特征维度,并保存编码器的状态向量。将编码器的状态向量送入解码器,通过反卷积和上采样操作逐步生成未来的时间序列数据。对解码器的输出进行后处理,如去均值或标准化,以得到最终的预测结果。
  需要注意的是,EncoderDecoderCNN模型在训练过程中需要使用适当的损失函数(如均方误差或交叉熵),并根据需要进行超参数调整。此外,为了提高模型的泛化能力,还需要使用交叉验证等技术进行模型评估和选择。2。4。2LSTNet(2018)
  Paper:ModelingLongandShortTermTemporalPatternswithDeepNeuralNetworks
  LSTNet是一种用于时间序列预测的深度学习模型,其全称为LongandShorttermTimeseriesNetworks。LSTNet结合了长短期记忆网络(LSTM)和一维卷积神经网络(1DCNN),能够有效地处理长期和短期时间序列信息,同时还能够捕捉序列中的季节性和周期性变化。LSTNet最初是由中国科学院计算技术研究所的GuokunLai等人于2018年提出的。
  LSTNet模型的核心思想是利用CNN对时间序列数据进行特征提取,然后将提取的特征输入到LSTM中进行序列建模。LSTNet还包括一个自适应权重学习机制,可以有效地平衡长期和短期时间序列信息的重要性。LSTNet模型的输入是一个形状为(T,d)的时间序列矩阵,其中T表示时间步数,d表示每个时间步的特征维数。LSTNet的输出是一个长度为H的预测向量,其中H表示预测的时间步数。在训练过程中,LSTNet采用均方误差(MSE)作为损失函数,并使用反向传播算法进行优化。
  2。4。3TDAN(2018)
  Paper:TDAN:TemporalDifferenceAttentionNetworkforPrecipitationNowcasting
  TDAN(TimeawareDeepAttentiveNetwork)是一种用于时序预测的深度学习算法,它通过融合卷积神经网络和注意力机制来捕捉时间序列的时序特征。相比于传统的卷积神经网络,TDAN能够更加有效地利用时间序列数据中的时间信息,从而提高时序预测的准确性。具体而言,TDAN算法可以按照以下步骤进行时序预测:输入历史时间序列数据,通过卷积层提取时间序列的特征。将卷积层输出的特征序列送入注意力机制中,根据历史数据中与当前预测相关的权重,计算加权特征向量。将加权特征向量送入全连接层,进行最终的预测。
  需要注意的是,TDAN算法在训练过程中需要使用适当的损失函数(如均方误差),并根据需要进行超参数调整。此外,为了提高模型的泛化能力,还需要使用交叉验证等技术进行模型评估和选择。
  TDAN算法的优点在于可以自适应地关注历史数据中与当前预测相关的部分,从而提高时序预测的准确性。同时,它也可以有效地处理时间序列数据中的缺失值和异常值等问题,具有一定的鲁棒性。2。4。4DeepAR(2019)
  Paper:DeepAR:ProbabilisticForecastingwithAutoregressiveRecurrentNetworks
  DeepAR是一个自回归循环神经网络,使用递归神经网络(RNN)结合自回归AR来预测标量(一维)时间序列。在很多应用中,会有跨一组具有代表性单元的多个相似时间序列。DeepAR会结合多个相似的时间序列,例如是不同方便面口味的销量数据,通过深度递归神经网络学习不同时间序列内部的关联特性,使用多元或多重的目标个数来提升整体的预测准确度。DeepAR最后产生一个可选时间跨度的多步预测结果,单时间节点的预测为概率预测,默认输出P10,P50和P90三个值。这里的P10指的是概率分布,即10的可能性会小于P10这个值。通过给出概率预测,我们既可以综合三个值给出一个值预测,也可以使用P10P90的区间做出相应的决策。2。4。5NBEATS(2020)
  Paper:NBEATS:Neuralbasisexpansionanalysisforinterpretabletimeseriesforecasting
  Code:https:github。comamitesh863nbeatsforecast
  NBEATS(Neuralbasisexpansionanalysisforinterpretabletimeseriesforecasting)是一种基于神经网络的时序预测模型,由OriolVinyals等人在GoogleBrain团队开发。NBEATS使用基于学习的基函数(learnedbasisfunction)对时间序列数据进行表示,从而能够在保持高精度的同时提高模型的可解释性。NBEATS模型还采用了堆叠的回归模块和逆卷积模块,可以有效地处理多尺度时序数据和长期依赖关系。
  modelNBEATSModel(inputchunklength30,outputchunklength15,nepochs100,numstacks30,numblocks1,numlayers4,dropout0。0,activationReLU)
  2。4。6TCNLSTM(2021)
  Paper:AComparativeStudyofDetectingAnomaliesinTimeSeriesDataUsingLSTMandTCNModels
  TCNLSTM是一种融合了TemporalConvolutionalNetwork(TCN)和LongShortTermMemory(LSTM)的模型,可以用于时序预测任务。在这个模型中,TCN层和LSTM层相互协作,分别用于捕捉长期和短期时间序列的特征。具体而言,TCN层可以通过堆叠多个卷积层来实现,以扩大感受野,同时通过残差连接来防止梯度消失。而LSTM层则可以通过记忆单元和门控机制来捕捉时间序列的长期依赖关系。TCNLSTM模型可以按照以下步骤进行时序预测:输入历史时间序列数据,通过TCN层提取时间序列的短期特征。将TCN层输出的特征序列送入LSTM层,捕捉时间序列的长期依赖关系。将LSTM层输出的特征向量送入全连接层,进行最终的预测。
  需要注意的是,TCNLSTM模型在训练过程中需要使用适当的损失函数(如均方误差),并根据需要进行超参数调整。此外,为了提高模型的泛化能力,还需要使用交叉验证等技术进行模型评估和选择。2。4。7NeuralProphet(2021)
  Paper:NeuralForecastingatScale
  NeuralProphet是Facebook提供的基于神经网络的时间序列预测框架,它在Prophet框架的基础上增加了一些神经网络结构,可以更准确地预测具有复杂非线性趋势和季节性的时间序列数据。NeuralProphet的核心思想是利用深度神经网络来学习时间序列的非线性特征,并将Prophet的分解模型与神经网络结合起来。NeuralProphet提供了多种神经网络结构和优化算法,可以根据具体的应用需求进行选择和调整。NeuralProphet的特点如下:灵活性:NeuralProphet可以处理具有复杂趋势和季节性的时间序列数据,并且可以灵活地设置神经网络结构和优化算法。准确性:NeuralProphet可以利用神经网络的非线性建模能力,提高时间序列预测的准确性。可解释性:NeuralProphet可以提供丰富的可视化工具,帮助用户理解预测结果和影响因素。易用性:NeuralProphet可以很容易地与Python等编程语言集成,并提供了丰富的API和示例,使用户可以快速上手。
  NeuralProphet在许多领域都有广泛的应用,例如金融、交通、电力等。它可以帮助用户预测未来的趋势和趋势的变化,并提供有用的参考和决策支持。2。4。8NHiTS(2022)
  Paper:NHiTS:NeuralHierarchicalInterpolationforTimeSeriesForecasting
  NHiTS(NeuralnetworkbasedHierarchicalTimeSeries)是一种基于神经网络的层次时序预测模型,由Uber团队开发。NHiTS使用基于深度学习的方法来预测多层次时间序列数据,如产品销售、流量、股票价格等。该模型采用了分层结构,将整个时序数据分解为多个层次,每个层次包含不同的时间粒度和特征,然后使用神经网络模型进行预测。NHiTS还采用了一种自适应的学习算法,可以动态地调整预测模型的结构和参数,以最大程度地提高预测精度。
  modelNHiTSModel(inputchunklength30,outputchunklength15,nepochs100,numstacks3,numblocks1,numlayers2,dropout0。1,activationReLU)
  2。4。9DLinear(2022)
  Paper:AreTransformersEffectiveforTimeSeriesForecasting?
  Code:https:github。comcurelabLTSFLinear
  DLinear(DeepLinearModel)是一种基于神经网络的线性时序预测模型,由李宏毅团队开发。DLinear使用神经网络结构来进行时间序列数据的线性预测,从而能够在保持高预测精度的同时提高模型的可解释性。该模型采用了多层感知器(MultilayerPerceptron)作为神经网络模型,并通过交替训练和微调来提高模型的性能。DLinear还提供了一种基于稀疏编码的特征选择方法,能够自动选择具有区分性和预测能力的特征。与之相近,NLinear(NeuralLinearModel)是一种基于神经网络的线性时序预测模型,由百度团队开发。modelDLinearModel(inputchunklength15,outputchunklength13,batchsize90,nepochs100,sharedweightsFalse,kernelsize25,randomstate42)modelNLinearModel(inputchunklength15,outputchunklength13,batchsize90,nepochs100,sharedweightsTrue,randomstate42)

甘肃和青海两省,哪个省经济发展好?甘肃青海都位于祖国的西北地区,两省份山水相连,就经济而言,在全国排名都靠后。以2016年来说,甘肃GDp总量7152亿元,人均GDp27508元,排全国第31位,人均收入14670坐月子,让老公给我洗内裤,他不同意,我该怎么办?坐月子,让老公给你洗内裤,他不同意,那只能说明他嫌弃你,这样的男人太自私了,女人坐月子期间最好少洗衣服,月子里受凉,会留下病根,可以向他说明白,如果他坚持不洗,也只好自己洗洗了。以顺产一个月后肚子大的像怀孕,怎么能在两个月里安全快速减重呢?我是一个宝妈,给你说说我的看法吧。因为孕期食补和胎儿的慢慢增大,导致生了孩子以后,肚子肉还超级多,孩子一岁多,我出去的时候人家还说我怀孕了,因为没有戒母乳,我容易刻意多吃,总想着多长津湖战狼,都是爱国战争题材,下一部票房纪录片是什么题材?一定要拍南京大屠杀。像长津湖那样,片长200分钟的,高质量制作(千万不要让那些小鲜肉来参演)。让全世界人民看清楚,日本是怎样的一个国家。让全世界人民一定要牢记,日本人的罪恶行径。一英雄联盟各大区之间有什么文化差异?你最喜欢哪个区?英雄联盟国服从最初的两个大区电信艾欧尼亚和网通比尔吉沃特发展到了如今的28个区。要说每个区文化差异也没啥特别的,坑起来都一样,只是部分区服因为名称开服时间等原因会有所特殊。艾欧尼亚英雄联盟最贵的六件装备是什么?如果买这六件装备会是什么样子?最贵的六件装备是什么?作为法师专精的我,第一反应就是帽子,但实际情况是不是这样呢?英雄联盟最贵的六件装备分别是灭世者的死亡之冠(4800G),三相之熔(4733G),熔火之刃(47想买一台大容量的冰箱,听朋友说卡萨帝的不错,有推荐的型号吗?2021中国家用电器创新成果年度产品创新成果2021中国家用电器创新成果年度设计创新成果根据第十七届中国家用电器创新成果推介活动发布的2021年中国家用电器创新成果,为您推荐卡萨帝有个要好的朋友工资比我高,老是问我借钱过桥(他是正规国企单位,信誉好),每次都是那几天,我该怎么办?现在向别人借钱和朋友向你借钱都是头痛的事。当今,经济发展多少有些滞缓。各个行业,各个家庭的资产在不知不觉中明显缩水。一般人心态,钱还是入袋为安。自然缩水就让它缩去吧。自已干事或发展孩子每次月考成绩退步,家长就焦虑不安,请问怎么缓解这种情绪?从我多年担任初三班主任来看,这一现象很多很普遍,尤其是现在应试教育搞得越发激烈,很多学校喊着素质教育的口号,变本加厉在搞应试教育,不仅仅是高中,初中小学也有过之而无不及!归根到底和朋友们,我现在是应届毕业生,现在有银行和年薪到手9万到10万的国企让我选,我该怎么选?这个问题可以通过三个方面来回答第一不错的,你现在是应届毕业生就有这么好的工作,令人羡慕,说实话现在找个好一点的工作,真的不好找,特别是稳定的工作,更是难上加难。现在摆在面前的两份工高三语文有什么好的学习方法?因为阅读的提高是靠平时的积累,所以我主要讲一讲作文和诗词的提高。作文的提高写议论文的技巧1快速构思天下武功唯快不破,怎么在考试的有限时间快速构思议论文呢?六字联珠助你快速构思高考议
从豪车到日本情色大师,这三块新表属实把男人的喜好拿捏了从豪车到日本情色大师,这三块新表属实把男人的喜好拿捏了!点击可以查看文内腕表参数男性之友?现在这个审美个性化严重的时代,好看变得非常私人化,手表也遇到了同样的问题。有我这种既能接受国医大师的一方,行气活血祛瘀通络强筋健骨,专攻骨质疏松大家好,我是中医骨科阎医生。随着年龄的不断增长,越来越多人骨头都会出现一系列的问题,其中骨质疏松应该是最常见的骨科疾病了。骨脆易折腰背或四肢关节疼痛畏寒肢冷或抽筋下肢无力夜尿频多足大师钱玄同钱三强之父,支持自由恋爱却忠于包办婚姻1904年,17岁的钱玄同新婚大喜。谁知刚进洞房,他竟觉得心口抽痛,一行眼泪默默地流了下来。洞房花烛本是人生乐事,钱玄同为何内心如此苦痛?这是一桩包办婚姻,并不是年轻的钱玄同所期待参观瑞州府衙有感,每个村应建立一个博物馆北京红楼梦大观园,很多人听说也知道,但瑞州府却极少人知道。2022年11月4日,清晨7点,天色阴蒙,空中飘着小雨,感觉凉意袭人,我添加2件衣服,匆忙离开工地铁皮房,外出。740分乘华为认证系列实验MPLSVPN配置拓扑图步骤一。基本配置与IP编址给所有路由器配置IP地址和掩码。systemviewR1interfaceSerial100R1Serial100ipaddres进展高电压水系锂离子储能电池取得系列研究进水系锂离子电池由于其低成本环境友好本质安全,被认为是大规模储能的理想选择。然而由于水系电解液电化学窗口窄导致水系电池输出电压和能量密度低,循环寿命差等问题使得其用于规模储能技术经济新疆男篮签305小外援,邱彪联手得分王,第二阶段要大展拳脚新疆男篮签305小外援,邱彪联手得分王,第二阶段要大展拳脚新疆男篮这个赛季变数很大,开始阿的江可以说是信心满满,因为从浙江男篮引进三分射手朱旭航,又从江苏男篮签下拼劲十足的年轻后卫第80分钟绝杀!21!内马尔独造两球,姆巴佩彻底哑火,梅西缺席北京时间11月6日20点,法甲第14轮的一场比赛展开争夺,巴黎圣日耳曼客场挑战洛里昂。这场比赛梅西因伤缺席。上半场,内马尔抽射破门,拉莫斯头球攻门被化解,埃基蒂克推射踢飞,姆巴佩小正式官宣!CBA儒帅接手新疆拒绝成为杜锋副手制定五年冲冠计划CBA从今年五月份开始经历了一轮换帅高潮,整个CBA20支球队有八支球队都更换了主教练。而没想到第一阶段结束之后,表现不佳的新疆队也终于按捺不住,和执教新疆四年的老帅阿的江结束了合7胜2负太阳登顶西部!3将无心恋战弃战大伤将陷热火队危机?10282,太阳轻取利拉德安芬尼西蒙斯均缺阵的开拓者队,收获赛季第7胜,战绩上升到西部第一,可喜可贺之余,太阳恐将陷入热火队的危机。太阳赢了开拓者?此战,两队命中率得分均不高,双方记者中国足坛名宿王涛于杭州病逝,追悼会将于本月8日举行直播吧11月5日讯昨天中午,曾经在大连万达效力的中国足坛名宿王涛在杭州去世,年仅52岁。据记者徐毅透露,王涛追悼会将于本月8日(下周二)举行。去年6月6日,王涛曾经和2002年韩日
友情链接:快好知快生活快百科快传网中准网文好找聚热点快软网