PyTorch实现多项式回归:拟合带噪声正弦函数
以下是使用 PyTorch 实现多项式回归模型并训练的完整代码,该模型用于拟合带噪声的正弦函数数据:
import torch
import torch.nn as nn
import numpy as np
import matplotlib.pyplot as plt
# 生成训练数据
num_observations = 100
x = np.linspace(-3, 3, num_observations)
y = np.sin(x) + np.random.uniform(-0.5, 0.5, num_observations)
# 将数据转换为 PyTorch 张量,并扩展为 3 维数据
x = torch.from_numpy(x).float().view(-1, 1)
y = torch.from_numpy(y).float().view(-1, 1)
# 扩展 x 为 x^2 和 x^3
x = torch.cat((x, x ** 2, x ** 3), dim=1)
# 定义多项式回归模型
class PolynomialRegression(nn.Module):
def __init__(self):
super(PolynomialRegression, self).__init__()
self.linear = nn.Linear(3, 1)
def forward(self, x):
out = self.linear(x)
return out
model = PolynomialRegression()
# 定义损失函数和优化器
criterion = nn.MSELoss()
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)
# 训练模型
num_epochs = 1000
for epoch in range(num_epochs):
# 前向传播和计算损失
outputs = model(x)
loss = criterion(outputs, y)
# 反向传播和优化
optimizer.zero_grad()
loss.backward()
optimizer.step()
# 打印损失
if (epoch+1) % 100 == 0:
print('Epoch [{}/{}], Loss: {:.4f}'.format(epoch+1, num_epochs, loss.item()))
# 输出训练得到的参数
w1, w2, w3 = model.linear.weight.view(-1).detach().numpy()
b = model.linear.bias.item()
print('w1: {:.4f}, w2: {:.4f}, w3: {:.4f}, b: {:.4f}'.format(w1, w2, w3, b))
# 生成预测回归曲线
x_plot = torch.linspace(-3, 3, 100).view(-1, 1)
x_plot = torch.cat((x_plot, x_plot ** 2, x_plot ** 3), dim=1)
y_plot = model(x_plot).detach().numpy()
# 绘制预测回归曲线和训练数据散点图
plt.scatter(x[:, 0].numpy(), y.numpy(), label='Training Data')
plt.plot(x_plot[:, 0].numpy(), y_plot, 'r-', label='Regression Line')
plt.xlabel('x')
plt.ylabel('y')
plt.title('Polynomial Regression')
plt.legend()
plt.show()
运行以上代码将训练多项式回归模型,输出训练得到的参数 w1、w2、w3 和 b,然后绘制预测回归曲线和训练数据散点图。预测回归曲线将尽量拟合训练数据,通过使用三次多项式模型(包括 x、x^2 和 x^3),模型可以更好地适应数据的非线性特征。由于加入了服从均匀分布 (-0.5 到 0.5) 的噪声,回归曲线可能无法完全精确地通过所有数据点,并且在曲线中可能存在一些波动。这是因为噪声的存在引入了一些随机性,并且模型通过训练数据的拟合来尽量减小噪声的影响。
原文地址: http://www.cveoy.top/t/topic/cl5i 著作权归作者所有。请勿转载和采集!