默谷资源网

专业网站建设资源库

【Python时序预测系列】LSTM-Attention模型实现单变量时序预测

这是我的第402篇原创文章。

一、引言

时间序列预测通常需要捕获时间依赖性,而LSTM(长短时记忆网络)是处理时间序列数据的经典深度学习方法之一。结合长短时注意力机制(Long-Short Attention Mechanism)可以增强LSTM的性能,从而实现更精确的预测。本文结合LSTM与长短时注意力机制结合进行时间序列预测。

二、实现过程

2.1 读取数据

核心代码:

df = pd.DataFrame(pd.read_csv('data.csv'))
df['Month'] = pd.to_datetime(df['Month'])
print(df.head())

结果:

可视化:

# 数据可视化
sns.set(font_scale=1.2)
plt.rc('font', family=['Times New Roman', 'Simsun'], size=12)
plt.figure(figsize=(10, 5))
plt.plot(df['Month'], df['Passengers'], label='Time Series')
plt.xlabel('Month')
plt.ylabel('Passengers')
plt.legend()
plt.title('Time Series Data')
plt.show()

结果:

2.2 数据预处理

核心代码:

# 数据预处理
df['lag1'] = df['Passengers'].shift(1)
df['lag2'] = df['Passengers'].shift(2)
df = df.dropna()
# 数据准备
X = df[['lag1', 'lag2']].values
y = df['Passengers'].values
X = torch.tensor(X, dtype=torch.float32)
y = torch.tensor(y, dtype=torch.float32).view(-1, 1)
# 数据加载
dataset = TensorDataset(X, y)
train_loader = DataLoader(dataset, batch_size=32, shuffle=True)

在代码中,df['lag1'] = df['value'].shift(1)和df['lag2'] = df['value'].shift(2)是用来创建滞后变量(lagged variables)的。滞后变量是指同一时间序列在不同时间点的值。这里其实就是用前两天的预测后一天,滑动窗口的另一种实现方式。

2.3 模型定义

核心代码:

class LSTMAttention(nn.Module):
    def __init__(self, input_dim, hidden_dim, output_dim):
        super(LSTMAttention, self).__init__()
        self.lstm = nn.LSTM(input_dim, hidden_dim, batch_first=True)
        self.attention = nn.Linear(hidden_dim, 1)
        self.fc = nn.Linear(hidden_dim, output_dim)
    
    def forward(self, x):
        lstm_out, _ = self.lstm(x)
        # 计算注意力权重
        attn_weights = torch.softmax(self.attention(lstm_out), dim=1)
        context = torch.sum(attn_weights * lstm_out, dim=1)
        out = self.fc(context)
        return out
model = LSTMAttention(input_dim=2, hidden_dim=64, output_dim=1)
criterion = nn.MSELoss()
optimizer = optim.Adam(model.parameters(), lr=0.001)

结合长短时注意力机制后,模型结构包括以下组件:

(1)LSTM层:提取时间序列的初步特征。(2)注意力层:计算全局和局部的时间步重要性。(3)全连接层:进行最终预测。

2.3 模型训练

核心代码:

num_epochs = 10000
model.train()
for epoch in range(num_epochs):
    epoch_loss = 0
    for X_batch, y_batch in train_loader:
        X_batch = X_batch.unsqueeze(1)  # 添加时间步维度
        y_pred = model(X_batch)
        loss = criterion(y_pred, y_batch)
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()
        epoch_loss += loss.item()
    print(f'Epoch {epoch+1}/{num_epochs}, Loss: {epoch_loss:.4f}')

结果:

2.4 预测

核心代码:

model.eval()
X_test = X.unsqueeze(1)
y_pred = model(X_test).detach().numpy()

LSTM 模型期望的输入是一个三维张量,形状为 (batch_size, sequence_length, input_dim)。unsqueeze(1) 在 X 的第二个位置(即 sequence_length 的位置)添加了一个新的维度,使得 X 的形状从 (n_samples, 2) 变为 (n_samples, 1, 2),其中 1 表示时间序列的长度为1,2 表示每个时间步有两个特征(即 lag1 和 lag2)。

2.5 结果可视化

核心代码:

plt.figure(figsize=(12,6))
plt.plot(df['Month'], df['Passengers'], label='True Values', color='blue')
plt.plot(df['Month'], y_pred, label='Predicted Values', color='red', linestyle='--')
plt.xlabel('Month')
plt.ylabel('Passengers')
plt.legend()
plt.title('Model Prediction vs. True Values')
plt.show()

结果:

作者简介: 读研期间发表6篇SCI数据算法相关论文,目前在某研究院从事数据算法相关研究工作,结合自身科研实践经历持续分享关于Python、数据分析、特征工程、机器学习、深度学习、人工智能系列基础知识与案例。关注gzh:数据杂坛,获取数据和源码学习更多内容。

原文链接:

「链接」

控制面板
您好,欢迎到访网站!
  查看权限
网站分类
最新留言