预测效果

时序预测 | 基于LSTM-Transformer的时间序列预测(Python)_数据

基本描述

基于LSTM-Transformer的时间序列预测(Python)
单特征输入/单特征输出滑动窗口预测

Transformer 模型本质上都是预训练语言模型,大都采用自监督学习 (Self-supervised learning) 的方式在大量生语料上进行训练,也就是说,训练这些 Transformer 模型完全不需要人工标注数据。Transformer 模型的标志就是采用了注意力层 (Attention Layers) 的结构,前面也说过,提出 Transformer 结构的论文名字就叫《Attention Is All You Need》。顾名思义,注意力层的作用就是让模型在处理数据时,将注意力只放在某些数据上。Transformer 模型本来是为了翻译任务而设计的。在训练过程中,Encoder 接受源语言的句子作为输入,而 Decoder 则接受目标语言的翻译作为输入。在 Encoder 中,由于翻译一个词语需要依赖于上下文,因此注意力层可以访问句子中的所有词语;而 Decoder 是顺序地进行解码,在生成每个词语时,注意力层只能访问前面已经生成的单词。

时序预测 | 基于LSTM-Transformer的时间序列预测(Python)_python_02

程序设计

  • 完整源码私信博主回复基于LSTM-Transformer的时间序列预测(Python)