Python实现带ReLU激活函数的神经网络
当然可以,以下是一个简单的带有ReLU激活函数的神经网络的Python实现:
import numpy as np
# 定义ReLU激活函数
def relu(x):
return np.maximum(0, x)
# 定义神经网络类
class NeuralNetwork:
def __init__(self, input_size, hidden_size, output_size):
# 初始化权重和偏置
self.weights1 = np.random.randn(input_size, hidden_size)
self.bias1 = np.zeros((1, hidden_size))
self.weights2 = np.random.randn(hidden_size, output_size)
self.bias2 = np.zeros((1, output_size))
# 前向传播
def forward(self, X):
self.z1 = np.dot(X, self.weights1) + self.bias1
self.a1 = relu(self.z1)
self.z2 = np.dot(self.a1, self.weights2) + self.bias2
self.output = relu(self.z2)
return self.output
# 测试网络
X = np.array([[1, 2, 3, 4], [5, 6, 7, 8], [9, 10, 11, 12]])
nn = NeuralNetwork(4, 5, 2)
output = nn.forward(X)
print(output)
在以上代码中,我们定义了一个ReLU激活函数和一个神经网络类。神经网络类包含了初始化权重和偏置的方法,在前向传播时计算神经网络的输出。我们使用了ReLU激活函数来激活神经元。最后,我们测试了神经网络对一个输入数据的输出结果。
原文地址: https://www.cveoy.top/t/topic/mjUJ 著作权归作者所有。请勿转载和采集!