给定组=1,大小为 [10, 1, 5, 5] 的权重,预期输入 [2, 3, 28, 28] 有 1 个通道,但有 3 个通道
pytorch 260
原文标题 :Given groups=1, weight of size [10, 1, 5, 5], expected input[2, 3, 28, 28] to have 1 channels, but got 3 channels instead
我正在尝试使用 train MNIST 运行 CNN,但要使用我自己的书面数字进行测试。为此,我编写了以下代码,但在此问题的标题中出现错误:我正在尝试使用 train MNIST 运行 CNN,但在我自己的书面数字上进行测试。为此,我编写了以下代码,但在此问题的标题中出现错误:
batch_size = 64
train_dataset = datasets.MNIST(root='./data/',
train=True,
transform=transforms.ToTensor(),
download=True)
test_dataset = ImageFolder('my_digit_images/', transform=transforms.ToTensor())
train_loader = torch.utils.data.DataLoader(dataset=train_dataset,
batch_size=batch_size,
shuffle=True)
test_loader = torch.utils.data.DataLoader(dataset=test_dataset,
batch_size=batch_size,
shuffle=False)
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.conv1 = nn.Conv2d(1, 10, kernel_size=5)
#print(self.conv1.weight.shape)
self.conv2 = nn.Conv2d(10, 20, kernel_size=5)
self.conv3 = nn.Conv2d(20, 20, kernel_size=3)
#print(self.conv2.weight.shape)
self.mp = nn.MaxPool2d(2)
self.fc = nn.Linear(320, 10)
def forward(self, x):
in_size = x.size(0)
x = F.relu(self.conv1(x))
#print(x.shape)
x = F.relu(self.mp(self.conv2(x)))
x = F.relu(self.mp(self.conv3(x)))
#print("2.", x.shape)
# x = F.relu(self.mp(self.conv3(x)))
x = x.view(in_size, -1) # flatten the tensor
#print("3.", x.shape)
x = self.fc(x)
return F.log_softmax(x)
model = Net()
optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.5)
def train(epoch):
model.train()
for batch_idx, (data, target) in enumerate(train_loader):
data, target = Variable(data), Variable(target)
optimizer.zero_grad()
output = model(data)
loss = F.nll_loss(output, target)
loss.backward()
optimizer.step()
if batch_idx % 10 == 0:
print('Train Epoch: {} [{}/{} ({:.0f}%)]\tLoss: {:.6f}'.format(
epoch, batch_idx * len(data), len(train_loader.dataset),
100. * batch_idx / len(train_loader), loss.item()))
def test():
model.eval()
test_loss = 0
correct = 0
for data, target in test_loader:
data, target = Variable(data, volatile=True), Variable(target)
output = model(data)
test_loss += F.nll_loss(output, target, size_average=False).data
pred = output.data.max(1, keepdim=True)[1]
correct += pred.eq(target.data.view_as(pred)).cpu().sum()
test_loss /= len(test_loader.dataset)
print('\nTest set: Average loss: {:.4f}, Accuracy: {}/{} ({:.0f}%)\n'.format(
test_loss, correct, len(test_loader.dataset),
100. * correct / len(test_loader.dataset)))
回复
我来回复-
Alexey Birukov 评论
MNIST 数据集包含黑白 1 通道图像,而您的可能是 3 通道 RGB。重新编码您的图像或对其进行预处理
img = img[:,0:1,:,:]
您可以使用自定义转换来完成,在
transforms.ToTensor()
之后添加2年前 -
Pathi_rao 评论
训练和测试中的图像应该遵循相同的分布。由于 MNIST 数据默认为灰度,并且预计您没有更改通道,因此该模型期望测试中的通道数相同。
以下代码是如何使用转换完成的示例。按照下面定义的顺序,它
- 将图像转换为单通道(灰度)
- 将图像大小调整为默认 MNIST 数据的大小
- 将图像转换为张量
- 将张量归一化,使其具有与训练期间相同的均值和标准差(假设您使用了相同的值)。
test_dataset = ImageFolder('my_digit_images/', transform=transforms.Compose([transforms.Grayscale(num_output_channels=1), transforms.Resize((28, 28)), transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))]))
2年前