具体流程:
① 导入相应的包,下载训练集和测试集对应需要的图像数据。
②进行图像数据的变换,使图像数据转化成pytorch可识别并计算的张量数据类型
③数据预览测试和数据装载
④模型搭建和参数优化
⑤总代码
⑥测试
一、包导入及所需数据的下载
torchvision包的主要功能是实现数据的处理、导入、预览等,所以如果需要对计算机视觉的相关问题进行处理,就可以借用在torchvision包中提供的大量的类来完成相应的工作。
代码的开始部分有这两个:
1
2
|
import torch from torchvision import datasets, transforms # torchvision包的主要功能是实现数据的处理、导入和预览等 |
torchvision.datasets:实现对数据集的训练集和测试集的下载,只需使用torchvision再加上需要下载的数据集的名称就可以了,比如本例的mnist
下载数据集的代码如下:
1
2
3
4
5
6
7
8
9
10
11
12
|
data_train = datasets.mnist( transform = transform, root = "./data/" , train = true, download = true ) data_test = datasets.mnist( root = "./data/" , transform = transform, train = true, download = false ) |
①root用于指定数据集在下载之后的存放路径,这里存放在根目录下的data文件夹
②transform用于指定导入数据集是需要对数据进行哪种变换操作
③train用于指定数据集下载完成后需要载入哪部分数据(如果设置为true,则说明载入的是该数据集的训练集部分;如果设置为false,则说明载入的是该数据集的测试集部分)
关于数据集引入的改动
此处我对此进行了稍微地小改动,因为整个导入下载的数据集大约有6万张图片,这是一个极大的数据量,一台配置正常的电脑程序运行的时间需求将会是巨大的,我当时大约跑了一上午(一台正常配置的学生电脑),所以此处我将6万张数据集的训练集和测试集都只截取了前1000张用作训练和测试,虽然说精度会降低,使得偏差较大,但是也足够用了,在时间上会有极大的节省,代码如下:
1
2
3
4
5
6
7
8
9
10
11
12
|
from torch.utils.data import random_split data_train, _ = random_split( dataset = data_train, lengths = [ 1000 , 59000 ], generator = torch.generator().manual_seed( 0 ) ) data_test, _ = random_split( dataset = data_test, lengths = [ 1000 , 59000 ], generator = torch.generator().manual_seed( 0 ) ) |
我调用torch.utils.data import random_split函数对数据集进行了切割,使得数据量减少,提升了运行速率。
二、进行数据处理变换操作
在torch.transforms中提供了丰富的类对载入的数据进行变换。我们知道,在计算机视觉中处理的数据集有很大一部分是图片类型的,而在pytorch中实际进行计算的是tensor数据类型的变量,所以我们首先需要解决的是数据类型转换的问题
对数据进行载入及有相应变化的代码如下:
1
2
3
|
transform = transforms.compose( [transforms.totensor(), transforms.normalize(mean = [ 0.5 ], std = [ 0.5 ])] ) |
我们可以将以上代码中的torchvision.transforms.compose类看成一种容器,它能够同时对多种数据变换进行组合。传入的参数是一个列表,列表中的元素就开始对载入的数据进行各种变换操作。例如本例:
①转化数据类型为tensor(张量)
②对均值(mean)和标准差(std)均为0.5的原始数据进行数据标准化变化
三、数据预览测试和数据装载
数据下载完成并载入之后,我们还需对数据进行装载。
我们可以将数据的载入理解为对图片的处理,在处理完成后,我们就需要将这些图片打包好送给我们的模型进行训练了,而装载就是这个打包的过程
代码片如下:
1
2
3
4
5
6
7
|
data_loader_train = torch.utils.data.dataloader(dataset = data_train, batch_size = 4 , shuffle = true) data_loader_test = torch.utils.data.dataloader(dataset = data_test, batch_size = 4 , shuffle = true) |
对数据的装载使用的是torch.utils.data.dataloader类,类中的参数:
①batch_size参数设置了每个包中的图片数据个数,代码中的值是4(此处如果电脑配置不是很高或者想让程序跑的快一点的话可以稍微调低,原本为64,此处我将其调为4)
②dataset参数用于指定我们载入的数据集的名称。 ③将shuffle参数设置为true,在装载的过程中会将数据随机打乱顺序并进行打包。
在装载完成后,我们可以选取其中一个批次的数据进行预览。进行数据预览的代码如下:
1
2
3
4
5
6
7
8
9
10
11
12
|
images, labels = next ( iter (data_loader_train)) img = torchvision.utils.make_grid(images) img = img.numpy().transpose( 1 , 2 , 0 ) std = [ 0.5 ] mean = [ 0.5 ] img = img * std + mean print ([labels[i] for i in range ( 4 )]) plt.imshow(img) plt.show() |
在以上代码中使用了iter和next来获取一个批次的图片数据(images)和其对应的图片标签(abels)。
然后使用torchvision.utils中的make_grid类方法将一个批次的图片构造成网格模式。
需要传递给torchvision.utils.make_grid的参数就是一个批次的装载数据,每个批次的装载数据都是4维的,维度的构成从前往后分别为batch_size、channel、height、weight,分别对应一个批次中的数据个数、每张图片的色彩通道数、每张图片的高度和宽度。
在通过torchvision.utils.make_grid之后,图片的维度就变成了(channel,height,weight),这个批次的图片全部被整合到了一起,所以在这个维度中对应的值也和之前不一样了,但是色彩通道数保持不变。
若我们想使用matplotlib将数据显示成正常的图片形式,则使用的数据首先必须是数组,其次这个数组的维度必须是(height、weight、channel),即色彩通道数在最后面。
所以我们要通过numpy和transpose完成原始数据类型的转换和数据维度的交换,这样才能够使用matplotlib绘制出正确的图像。
在完成数据预览的代码中,我们先打印输出了这个批次中的数据的全部标签,然后才对这个批次中的所有图片数据进行显示。结果如下:
效果图如下,可以看到,打印输出的首先是4张图片对应的标签,然后是4张图片的预览效果
plt.show()的话如果是使用pycham编译的话一定要加上去,不然会出现显示不出图像的情况
1
|
plt.show() |
四、模型搭建和参数优化
在顺利完成数据装载之后,我们就可以开始编写卷积神经网络的搭建和参数优化的代码了。
卷积层使用torch.nn.conv2d类方法来搭建;
激活层使用torch.nn.relu()类方法来搭建;
池化层使用torch.nn.maxpool2d类方法来搭建;
全连接层使用torch.nn.linear类方法来搭建
实现卷积神经网络模型搭建的代码如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
|
class model(torch.nn.module): def __init__( self ): super (model, self ).__init__() self .conv1 = torch.nn.sequential( torch.nn.conv2d( 1 , 64 , kernel_size = 3 , stride = 1 , padding = 1 ), torch.nn.relu(), torch.nn.conv2d( 64 , 128 , kernel_size = 3 , stride = 1 , padding = 1 ), torch.nn.relu(), torch.nn.maxpool2d(stride = 2 , kernel_size = 2 ) ) self .dense = torch.nn.sequential( torch.nn.linear( 14 * 14 * 128 , 1024 ), torch.nn.relu(), torch.nn.dropout(p = 0.5 ), torch.nn.linear( 1024 , 10 ) ) def forward( self , x): x = self .conv1(x) # 卷积处理 x = x.view( - 1 , 14 * 14 * 128 ) # 对参数实行扁平化处理 x = self .dense(x) return x |
我们选择搭建一个在结构层次上有所简化的卷积神经网络模型,在结构上使用了两个卷积层:一个最大池化层和两个全连接层
torch.nn.conv2d():用于搭建卷积神经网络的卷积层,主要的输入参数有输入通道数、输出通道数、卷积核大小、卷积核移动步长和padding值。其中,
输入通道数的数据类型是整型,用于确定输入数据的层数;
输出通道数的数据类型也是整型,用于确定输出数据的层数;
卷积核大小的数据类型是整型,用于确定卷积核的大小;
卷积核移动步长的数据类型是整型,用于确定卷积核每次滑动的步长;
paddingde的数据类型是整型,值为0时代表不进行边界像素的填充,如果值大于0,那么增加数字所对应的边界像素层数。
torch.nn.maxpool2d():用于实现卷积神经网络中的最大池化层,主要的输入参数时池化窗口的大小、池化窗口移动步长和paddingde值。
同样:
池化窗口大小的数据类型是整型,用于确定池化窗口的大小。
池化窗口步长的数据类型也是整型,用于确定池化窗口每次移动的步长。
paddingde值和在torch.nn.conv2d中定义的paddingde值的用法和意义时一样的。
torch.nn.dropout():torch.nn.dropout类用于防止卷积神经网络在训练的过程中发生过拟合,其工作原理简单来说就是在模型训练的过程中,以一定的随机概率将卷积神经网络模型的部分参数归零,以达到减少相邻两层神经连接的目的。
代码前向传播forward函数中的内容:
首先,经过self.conv1进行卷积处理;然后进行x.view(-1 ,14 * 14 *128),对参数实现扁平化因为之后紧挨着就是全连接层,所以如果不进行扁平化处理,则全连接层的实际输出的参数维度和其定义输入的维度将不匹配,程序会报错;最后,通过self.dense定义的全连接进行最后的分类。
在编辑完搭建卷积神经网络模型的代码之后,我们就可以开始对模型进行训练和对参数进行优化了。首先,定义在训练之前使用哪种损失函数和优化函数:
1
2
3
4
5
6
|
model = model() cost = torch.nn.crossentropyloss() optimizer = torch.optim.adam(model.parameters()) # 损失函数: 交叉熵 # 优化函数: adam自适应优化算法,需要优化的参数实在model中生成的全部参数, #因为没有定义学习速率的值,所以使用默认值 |
最后,卷积神经网络模型进行模型训练和参数优化的代码如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
|
epochs_n = 5 for epoch in range (epochs_n): running_loss = 0.0 running_correct = 0 print ( "epoch{}/{}" . format (epoch, epochs_n)) print ( "-" * 10 ) for data in data_loader_train: x_train, y_train = data x_train, y_train = variable(x_train), variable(y_train) outputs = model(x_train) _,pred = torch. max (outputs.data, 1 ) optimizer.zero_grad() loss = cost(outputs, y_train) loss.backward() optimizer.step() running_loss + = loss.data running_correct + = torch. sum (pred = = y_train.data) testing_correct = 0 for data in data_loader_test: x_test, y_test = data x_test, y_test = variable(x_test), variable(y_test) outputs = model(x_test) _, pred = torch. max (outputs.data, 1 ) testing_correct + = torch. sum (pred = = y_test.data) print ( "loss is:{:.4f},train accuracy is:{:.4f}%, test accuracy is:{:.4f}" . format (running_loss / len (data_train), 100 * running_correct / len (data_train), 100 * testing_correct / len (data_test))) |
关于模型搭建的改动
在此处我对上面模型进行了优化改动,大大优化了运行的时间,但是对应也减少了一些训练精度。
原理就是,卷积层的运算量不会太大,但全连接层的运算量比较大,所以降低全连接的参数量,以及降低图像特征图的尺寸
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
|
class model(torch.nn.module): def __init__( self ): super (model, self ).__init__() self .conv1 = torch.nn.sequential( torch.nn.conv2d( 1 , 64 , kernel_size = 3 , stride = 2 , padding = 1 ), torch.nn.relu(), torch.nn.conv2d( 64 , 128 , kernel_size = 3 , stride = 2 , padding = 1 ), torch.nn.relu(), # torch.nn.maxpool2d(stride=2, kernel_size=2) ) self .dense = torch.nn.sequential( # torch.nn.linear(14 * 14 * 128, 1024), torch.nn.linear( 7 * 7 * 128 , 512 ), torch.nn.relu(), # torch.nn.dropout(p=0.5), torch.nn.dropout(p = 0.8 ), torch.nn.linear( 512 , 10 ) ) def forward( self , x): x = self .conv1(x) # 卷积处理 # x = x.view(-1, 14*14*128) # 对参数实行扁平化处理 x = x.view( - 1 , 7 * 7 * 128 ) # 对参数实行扁平化处理 x = self .dense(x) return x |
为了验证我们训练的模型是不是真的已如结果显示的一样准确,则最好的方法就是随机选取一部分测试集中的图片,用训练好的模型进行预测,看看和真实值有多大偏差,并对结果进行可视化,测试的代码如下:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
|
x_test, y_test = next ( iter (data_loader_test)) inputs = variable(x_test) pred = model(inputs) _, pred = torch. max (pred, 1 ) print ( "predict label is:" , [i for i in pred.data]) print ( "real label is:" , [i for i in y_test]) img = torchvision.utils.make_grid(x_test) img = img.numpy().transpose( 1 , 2 , 0 ) std = [ 0.5 , 0.5 , 0.5 ] mean = [ 0.5 , 0.5 , 0.5 ] img = img * std + mean plt.imshow(img) plt.show() |
记得末尾一定加上plt.show()
用于测试的数据标签结果输出如下:
在输出结果中
第1个结果是我们训练好的模型的预测值,第2个结果是这4个测试数据的真实值。
对测试数据进行可视化,如下图所示:
可以看到,在上图可视化的这部分测试集图片,模型的预测结果和真实结果是完全一致的。当然如果想选取更多的测试集进行可视化,则只需将batch_size设置的更大,但考虑对应程序的运行速度将会略微降低
总代码:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
|
import torch import numpy import torchvision import matplotlib.pyplot as plt from torchvision import datasets, transforms # torchvision包的主要功能是实现数据的处理、导入和预览等 from torch.autograd import variable transform = transforms.compose([transforms.totensor(), transforms.normalize(mean = [ 0.5 ], std = [ 0.5 ])]) data_train = datasets.mnist( transform = transform, root = "./data/" , train = true, download = true ) data_test = datasets.mnist( root = "./data/" , transform = transform, train = true, download = false ) from torch.utils.data import random_split data_train, _ = random_split( dataset = data_train, lengths = [ 1000 , 59000 ], generator = torch.generator().manual_seed( 0 ) ) data_test, _ = random_split( dataset = data_test, lengths = [ 1000 , 59000 ], generator = torch.generator().manual_seed( 0 ) ) data_loader_train = torch.utils.data.dataloader(dataset = data_train, batch_size = 4 , shuffle = true) data_loader_test = torch.utils.data.dataloader(dataset = data_test, batch_size = 4 , shuffle = true) # images, labels = next(iter(data_loader_train)) # # img = torchvision.utils.make_grid(images) # img = img.numpy().transpose(1, 2, 0) # # std = [0.5] # mean = [0.5] # img = img * std + mean # # print([labels[i] for i in range(64)]) # plt.imshow(img) # plt.show() # class model(torch.nn.module): # # def __init__(self): # super(model, self).__init__() # self.conv1 = torch.nn.sequential( # torch.nn.conv2d(1, 64, kernel_size=3, stride=1, padding=1), # torch.nn.relu(), # torch.nn.conv2d(64, 128, kernel_size=3, stride=1, padding=1), # torch.nn.relu(), # torch.nn.maxpool2d(stride=2, kernel_size=2) # ) # # self.dense = torch.nn.sequential( # torch.nn.linear(14 * 14 * 128, 1024), # torch.nn.relu(), # torch.nn.dropout(p=0.5), # torch.nn.linear(1024, 10) # ) # # def forward(self, x): # x = self.conv1(x) # 卷积处理 # x = x.view(-1, 14*14*128) # 对参数实行扁平化处理 # x = self.dense(x) # return x class model(torch.nn.module): def __init__( self ): super (model, self ).__init__() self .conv1 = torch.nn.sequential( torch.nn.conv2d( 1 , 64 , kernel_size = 3 , stride = 2 , padding = 1 ), torch.nn.relu(), torch.nn.conv2d( 64 , 128 , kernel_size = 3 , stride = 2 , padding = 1 ), torch.nn.relu(), # torch.nn.maxpool2d(stride=2, kernel_size=2) ) self .dense = torch.nn.sequential( # torch.nn.linear(14 * 14 * 128, 1024), torch.nn.linear( 7 * 7 * 128 , 512 ), torch.nn.relu(), # torch.nn.dropout(p=0.5), torch.nn.dropout(p = 0.8 ), torch.nn.linear( 512 , 10 ) ) def forward( self , x): x = self .conv1(x) # 卷积处理 # x = x.view(-1, 14*14*128) # 对参数实行扁平化处理 x = x.view( - 1 , 7 * 7 * 128 ) # 对参数实行扁平化处理 x = self .dense(x) return x model = model() cost = torch.nn.crossentropyloss() optimizer = torch.optim.adam(model.parameters()) epochs_n = 5 for epoch in range (epochs_n): running_loss = 0.0 running_correct = 0 print ( "epoch{}/{}" . format (epoch, epochs_n)) print ( "-" * 10 ) for data in data_loader_train: x_train, y_train = data x_train, y_train = variable(x_train), variable(y_train) outputs = model(x_train) _, pred = torch. max (outputs.data, 1 ) optimizer.zero_grad() loss = cost(outputs, y_train) loss.backward() optimizer.step() running_loss + = loss.data running_correct + = torch. sum (pred = = y_train.data) testing_correct = 0 for data in data_loader_test: x_test, y_test = data x_test, y_test = variable(x_test), variable(y_test) outputs = model(x_test) _, pred = torch. max (outputs.data, 1 ) testing_correct + = torch. sum (pred = = y_test.data) print ( "loss is:{:.4f},train accuracy is:{:.4f}%, test accuracy is:{:.4f}" . format (running_loss / len (data_train), 100 * running_correct / len ( data_train), 100 * testing_correct / len ( data_test))) x_test, y_test = next ( iter (data_loader_test)) inputs = variable(x_test) pred = model(inputs) _, pred = torch. max (pred, 1 ) print ( "predict label is:" , [i for i in pred.data]) print ( "real label is:" , [i for i in y_test]) img = torchvision.utils.make_grid(x_test) img = img.numpy().transpose( 1 , 2 , 0 ) std = [ 0.5 , 0.5 , 0.5 ] mean = [ 0.5 , 0.5 , 0.5 ] img = img * std + mean plt.imshow(img) plt.show() |
测试
最后,关于这类代码的运行时间的需求都是巨大的,所以短时间内出不来很正常,尽量别中途中断程序,若你想检测程序是否运行:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
|
epochs_n = 5 for epoch in range (epochs_n): running_loss = 0.0 running_correct = 0 print ( "epoch{}/{}" . format (epoch, epochs_n)) print ( "-" * 10 ) iter = 0 for data in data_loader_train: iter + = 1 print ( iter ) x_train, y_train = data x_train, y_train = variable(x_train), variable(y_train) outputs = model(x_train) _, pred = torch. max (outputs.data, 1 ) optimizer.zero_grad() loss = cost(outputs, y_train) loss.backward() optimizer.step() running_loss + = loss.data running_correct + = torch. sum (pred = = y_train.data) testing_correct = 0 for data in data_loader_test: x_test, y_test = data x_test, y_test = variable(x_test), variable(y_test) outputs = model(x_test) _, pred = torch. max (outputs.data, 1 ) testing_correct + = torch. sum (pred = = y_test.data) print ( "loss is:{:.4f},train accuracy is:{:.4f}%, test accuracy is:{:.4f}" . format (running_loss / len (data_train), 100 * running_correct / len ( data_train), 100 * testing_correct / len ( data_test))) |
你可以在此处加上一个int型的测试变量iter,通过观察iter是否累加迭代来判断程序是否继续在运行
总结
到此这篇关于pytorch简单手写数字识别的文章就介绍到这了,更多相关pytorch手写数字识别内容请搜索服务器之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持服务器之家!
原文链接:https://blog.csdn.net/m0_53245772/article/details/121443967