Pytorch中nn.Sequential()函数创建网络的几种方法
创始人
2025-01-11 08:36:00
0

1. 创作灵感

在创建大型网络的时候,如果使用nn.Sequential()将几个有紧密联系的运算组成一个序列,可以使网络的结构更加清晰。

2.应用举例

为了记录nn.Sequential()的用法,搭建以下测试网络:

2.1 方法一

把网络分成3个Sequential序列,分别实现:第一个是卷积序列,第二个是铺平成一维的操作,第3个包含了两个线性层。

 class TestNet(nn.Module):     def __init__(self, in_channels, mid_channels):         super(TestNet,self).__init__()         self.conv = nn.Sequential(             nn.Conv2d(in_channels,in_channels*2,kernel_size=3,stride=2,padding=1),             nn.BatchNorm2d(in_channels*2),             nn.ReLU(inplace=True),             nn.Conv2d(in_channels*2,in_channels*4,kernel_size=3,stride=2,padding=1),             nn.BatchNorm2d(in_channels*4),             nn.ReLU(inplace=True)         )         self.flat = nn.Flatten()         self.linaer = nn.Sequential(             nn.Linear(49*4, 64),             nn.Linear(64, 10),             nn.Linear(10, 1)         )      def forward(self,x):         x = self.conv(x)         print(x.shape)         x = self.flat(x)         print(x.shape)         x = self.linaer(x)         print(x.shape)         return x 

运行结果:

从维度上判断,网络符合预期。

2.2  方法二

第二种方法,在网络结构比较复杂且重复的单元比较多,为了自动化生成网络,通常会先定义一个列表,在列表中添加网络,再使用nn.Sequential()。

使用方法二所需要的代码如下:

class TestNet2(nn.Module):     def __init__(self, in_channels):         super(TestNet2,self).__init__()         layer1 = []         layer2 = []         layer1.append(nn.Conv2d(in_channels,in_channels*2,kernel_size=3,stride=2,padding=1))         layer1.append(nn.BatchNorm2d(in_channels*2))         layer1.append(nn.ReLU(inplace=True))         layer1.append(nn.Conv2d(in_channels*2,in_channels*4,kernel_size=3,stride=2,padding=1))         layer1.append(nn.BatchNorm2d(in_channels*4))         layer1.append(nn.ReLU(inplace=True))         self.conv = nn.Sequential(*layer1)         self.flat = nn.Flatten()         layer2.append(nn.Linear(49*4, 64))         layer2.append(nn.Linear(64, 10))         layer2.append(nn.Linear(10, 1))         self.linaer = nn.Sequential(*layer2)      def forward(self,x):         x = self.conv(x)         print(x.shape)         x = self.flat(x)         print(x.shape)         x = self.linaer(x)         print(x.shape)         return x

运行结果如下:

与第一种方法的结果相同。

参考文献:

nn.Sequential、nn.ModuleList、nn.ModuleDict区别及使用技巧-CSDN博客

相关内容

热门资讯

实锤黑科技!wepower轻量... 实锤黑科技!wepower轻量版辅助器(透视)太坑了是有挂(扑克教程黑科技工具)1、超多福利:超高返...
黑科技神器"wepo... 黑科技神器"wepoke辅助真的假的!外挂透明挂辅助科技(黑科技)透牌教程"其实是有挂1、wepok...
黑科技苹果版!wepoke辅助... 此外,数据分析德州(wepoke辅助使用教程)辅助神器app还具备辅助透视行为开挂功能,通过对客户w...
总结黑科技!wepower软件... 总结黑科技!wepower软件靠谱吗(透视)太坑了是真的有挂(曝光教程黑科技详情)1、每一步都需要思...
黑科技规律"微扑克辅... 黑科技规律"微扑克辅助软件查得出来吗!外挂透明挂辅助软件(黑科技)专业教程"一贯真的是有挂1、每一步...
黑科技攻略!来玩德州辅助器(w... 黑科技攻略!来玩德州辅助器(wepOkE)外挂黑科技辅助软件(一分钟快速了解黑科技辅助);大神普及一...
黑科技神器"wepo... 黑科技神器"wepoke有正规吗!外挂透明挂辅助系统(黑科技)揭秘教程"都是真的是有挂1、wepok...
脚本黑科技!wpk长期盈利打法... 脚本黑科技!wpk长期盈利打法教学(透视)太坑了有挂(透明教程黑科技细节)1)wpk长期盈利打法教学...
黑科技攻略!来玩德州app有挂... 黑科技攻略!来玩德州app有挂吗(wepOke)黑科技辅助软件(新手必备黑科技透明)1、玩家可以在来...
黑科技代打"wpk辅... 黑科技代打"wpk辅助实时策略建议!外挂透明挂辅助系统(黑科技)2025新版"本来真的有挂一、wpk...