1×3×256×192
1×17×64×48
input.1
float32[1,3,256,192]
Conv
Conv_0
float32[64,3,7,7]
W
〈64×3×7×7〉
BatchNormalization
BatchNormalization_1
float32[64]
scale
〈64〉
float32[64]
B
〈64〉
float32[64]
mean
〈64〉
float32[64]
var
〈64〉
Relu
Relu_2
MaxPool
MaxPool_3
Conv
Conv_4
float32[64,64,1,1]
W
〈64×64×1×1〉
BatchNormalization
BatchNormalization_5
float32[64]
scale
〈64〉
float32[64]
B
〈64〉
float32[64]
mean
〈64〉
float32[64]
var
〈64〉
Relu
Relu_6
Conv
Conv_7
float32[64,64,3,3]
W
〈64×64×3×3〉
BatchNormalization
BatchNormalization_8
float32[64]
scale
〈64〉
float32[64]
B
〈64〉
float32[64]
mean
〈64〉
float32[64]
var
〈64〉
Relu
Relu_9
Conv
Conv_10
float32[256,64,1,1]
W
〈256×64×1×1〉
BatchNormalization
BatchNormalization_11
float32[256]
scale
〈256〉
float32[256]
B
〈256〉
float32[256]
mean
〈256〉
float32[256]
var
〈256〉
Conv
Conv_12
float32[256,64,1,1]
W
〈256×64×1×1〉
BatchNormalization
BatchNormalization_13
float32[256]
scale
〈256〉
float32[256]
B
〈256〉
float32[256]
mean
〈256〉
float32[256]
var
〈256〉
Add
Add_14
Relu
Relu_15
Conv
Conv_16
float32[64,256,1,1]
W
〈64×256×1×1〉
BatchNormalization
BatchNormalization_17
float32[64]
scale
〈64〉
float32[64]
B
〈64〉
float32[64]
mean
〈64〉
float32[64]
var
〈64〉
Relu
Relu_18
Conv
Conv_19
float32[64,64,3,3]
W
〈64×64×3×3〉
BatchNormalization
BatchNormalization_20
float32[64]
scale
〈64〉
float32[64]
B
〈64〉
float32[64]
mean
〈64〉
float32[64]
var
〈64〉
Relu
Relu_21
Conv
Conv_22
float32[256,64,1,1]
W
〈256×64×1×1〉
BatchNormalization
BatchNormalization_23
float32[256]
scale
〈256〉
float32[256]
B
〈256〉
float32[256]
mean
〈256〉
float32[256]
var
〈256〉
Add
Add_24
Relu
Relu_25
Conv
Conv_26
float32[64,256,1,1]
W
〈64×256×1×1〉
BatchNormalization
BatchNormalization_27
float32[64]
scale
〈64〉
float32[64]
B
〈64〉
float32[64]
mean
〈64〉
float32[64]
var
〈64〉
Relu
Relu_28
Conv
Conv_29
float32[64,64,3,3]
W
〈64×64×3×3〉
BatchNormalization
BatchNormalization_30
float32[64]
scale
〈64〉
float32[64]
B
〈64〉
float32[64]
mean
〈64〉
float32[64]
var
〈64〉
Relu
Relu_31
Conv
Conv_32
float32[256,64,1,1]
W
〈256×64×1×1〉
BatchNormalization
BatchNormalization_33
float32[256]
scale
〈256〉
float32[256]
B
〈256〉
float32[256]
mean
〈256〉
float32[256]
var
〈256〉
Add
Add_34
Relu
Relu_35
Conv
Conv_36
float32[128,256,1,1]
W
〈128×256×1×1〉
BatchNormalization
BatchNormalization_37
float32[128]
scale
〈128〉
float32[128]
B
〈128〉
float32[128]
mean
〈128〉
float32[128]
var
〈128〉
Relu
Relu_38
Conv
Conv_39
float32[128,128,3,3]
W
〈128×128×3×3〉
BatchNormalization
BatchNormalization_40
float32[128]
scale
〈128〉
float32[128]
B
〈128〉
float32[128]
mean
〈128〉
float32[128]
var
〈128〉
Relu
Relu_41
Conv
Conv_42
float32[512,128,1,1]
W
〈512×128×1×1〉
BatchNormalization
BatchNormalization_43
float32[512]
scale
〈512〉
float32[512]
B
〈512〉
float32[512]
mean
〈512〉
float32[512]
var
〈512〉
Conv
Conv_44
float32[512,256,1,1]
W
〈512×256×1×1〉
BatchNormalization
BatchNormalization_45
float32[512]
scale
〈512〉
float32[512]
B
〈512〉
float32[512]
mean
〈512〉
float32[512]
var
〈512〉
Add
Add_46
Relu
Relu_47
Conv
Conv_48
float32[128,512,1,1]
W
〈128×512×1×1〉
BatchNormalization
BatchNormalization_49
float32[128]
scale
〈128〉
float32[128]
B
〈128〉
float32[128]
mean
〈128〉
float32[128]
var
〈128〉
Relu
Relu_50
Conv
Conv_51
float32[128,128,3,3]
W
〈128×128×3×3〉
BatchNormalization
BatchNormalization_52
float32[128]
scale
〈128〉
float32[128]
B
〈128〉
float32[128]
mean
〈128〉
float32[128]
var
〈128〉
Relu
Relu_53
Conv
Conv_54
float32[512,128,1,1]
W
〈512×128×1×1〉
BatchNormalization
BatchNormalization_55
float32[512]
scale
〈512〉
float32[512]
B
〈512〉
float32[512]
mean
〈512〉
float32[512]
var
〈512〉
Add
Add_56
Relu
Relu_57
Conv
Conv_58
float32[128,512,1,1]
W
〈128×512×1×1〉
BatchNormalization
BatchNormalization_59
float32[128]
scale
〈128〉
float32[128]
B
〈128〉
float32[128]
mean
〈128〉
float32[128]
var
〈128〉
Relu
Relu_60
Conv
Conv_61
float32[128,128,3,3]
W
〈128×128×3×3〉
BatchNormalization
BatchNormalization_62
float32[128]
scale
〈128〉
float32[128]
B
〈128〉
float32[128]
mean
〈128〉
float32[128]
var
〈128〉
Relu
Relu_63
Conv
Conv_64
float32[512,128,1,1]
W
〈512×128×1×1〉
BatchNormalization
BatchNormalization_65
float32[512]
scale
〈512〉
float32[512]
B
〈512〉
float32[512]
mean
〈512〉
float32[512]
var
〈512〉
Add
Add_66
Relu
Relu_67
Conv
Conv_68
float32[128,512,1,1]
W
〈128×512×1×1〉
BatchNormalization
BatchNormalization_69
float32[128]
scale
〈128〉
float32[128]
B
〈128〉
float32[128]
mean
〈128〉
float32[128]
var
〈128〉
Relu
Relu_70
Conv
Conv_71
float32[128,128,3,3]
W
〈128×128×3×3〉
BatchNormalization
BatchNormalization_72
float32[128]
scale
〈128〉
float32[128]
B
〈128〉
float32[128]
mean
〈128〉
float32[128]
var
〈128〉
Relu
Relu_73
Conv
Conv_74
float32[512,128,1,1]
W
〈512×128×1×1〉
BatchNormalization
BatchNormalization_75
float32[512]
scale
〈512〉
float32[512]
B
〈512〉
float32[512]
mean
〈512〉
float32[512]
var
〈512〉
Add
Add_76
Relu
Relu_77
Conv
Conv_78
float32[256,512,1,1]
W
〈256×512×1×1〉
BatchNormalization
BatchNormalization_79
float32[256]
scale
〈256〉
float32[256]
B
〈256〉
float32[256]
mean
〈256〉
float32[256]
var
〈256〉
Relu
Relu_80
Conv
Conv_81
float32[256,256,3,3]
W
〈256×256×3×3〉
BatchNormalization
BatchNormalization_82
float32[256]
scale
〈256〉
float32[256]
B
〈256〉
float32[256]
mean
〈256〉
float32[256]
var
〈256〉
Relu
Relu_83
Conv
Conv_84
float32[1024,256,1,1]
W
〈1024×256×1×1〉
BatchNormalization
BatchNormalization_85
float32[1024]
scale
〈1024〉
float32[1024]
B
〈1024〉
float32[1024]
mean
〈1024〉
float32[1024]
var
〈1024〉
Conv
Conv_86
float32[1024,512,1,1]
W
〈1024×512×1×1〉
BatchNormalization
BatchNormalization_87
float32[1024]
scale
〈1024〉
float32[1024]
B
〈1024〉
float32[1024]
mean
〈1024〉
float32[1024]
var
〈1024〉
Add
Add_88
Relu
Relu_89
Conv
Conv_90
float32[256,1024,1,1]
W
〈256×1024×1×1〉
BatchNormalization
BatchNormalization_91
float32[256]
scale
〈256〉
float32[256]
B
〈256〉
float32[256]
mean
〈256〉
float32[256]
var
〈256〉
Relu
Relu_92
Conv
Conv_93
float32[256,256,3,3]
W
〈256×256×3×3〉
BatchNormalization
BatchNormalization_94
float32[256]
scale
〈256〉
float32[256]
B
〈256〉
float32[256]
mean
〈256〉
float32[256]
var
〈256〉
Relu
Relu_95
Conv
Conv_96
float32[1024,256,1,1]
W
〈1024×256×1×1〉
BatchNormalization
BatchNormalization_97
float32[1024]
scale
〈1024〉
float32[1024]
B
〈1024〉
float32[1024]
mean
〈1024〉
float32[1024]
var
〈1024〉
Add
Add_98
Relu
Relu_99
Conv
Conv_100
float32[256,1024,1,1]
W
〈256×1024×1×1〉
BatchNormalization
BatchNormalization_101
float32[256]
scale
〈256〉
float32[256]
B
〈256〉
float32[256]
mean
〈256〉
float32[256]
var
〈256〉
Relu
Relu_102
Conv
Conv_103
float32[256,256,3,3]
W
〈256×256×3×3〉
BatchNormalization
BatchNormalization_104
float32[256]
scale
〈256〉
float32[256]
B
〈256〉
float32[256]
mean
〈256〉
float32[256]
var
〈256〉
Relu
Relu_105
Conv
Conv_106
float32[1024,256,1,1]
W
〈1024×256×1×1〉
BatchNormalization
BatchNormalization_107
float32[1024]
scale
〈1024〉
float32[1024]
B
〈1024〉
float32[1024]
mean
〈1024〉
float32[1024]
var
〈1024〉
Add
Add_108
Relu
Relu_109
Conv
Conv_110
float32[256,1024,1,1]
W
〈256×1024×1×1〉
BatchNormalization
BatchNormalization_111
float32[256]
scale
〈256〉
float32[256]
B
〈256〉
float32[256]
mean
〈256〉
float32[256]
var
〈256〉
Relu
Relu_112
Conv
Conv_113
float32[256,256,3,3]
W
〈256×256×3×3〉
BatchNormalization
BatchNormalization_114
float32[256]
scale
〈256〉
float32[256]
B
〈256〉
float32[256]
mean
〈256〉
float32[256]
var
〈256〉
Relu
Relu_115
Conv
Conv_116
float32[1024,256,1,1]
W
〈1024×256×1×1〉
BatchNormalization
BatchNormalization_117
float32[1024]
scale
〈1024〉
float32[1024]
B
〈1024〉
float32[1024]
mean
〈1024〉
float32[1024]
var
〈1024〉
Add
Add_118
Relu
Relu_119
Conv
Conv_120
float32[256,1024,1,1]
W
〈256×1024×1×1〉
BatchNormalization
BatchNormalization_121
float32[256]
scale
〈256〉
float32[256]
B
〈256〉
float32[256]
mean
〈256〉
float32[256]
var
〈256〉
Relu
Relu_122
Conv
Conv_123
float32[256,256,3,3]
W
〈256×256×3×3〉
BatchNormalization
BatchNormalization_124
float32[256]
scale
〈256〉
float32[256]
B
〈256〉
float32[256]
mean
〈256〉
float32[256]
var
〈256〉
Relu
Relu_125
Conv
Conv_126
float32[1024,256,1,1]
W
〈1024×256×1×1〉
BatchNormalization
BatchNormalization_127
float32[1024]
scale
〈1024〉
float32[1024]
B
〈1024〉
float32[1024]
mean
〈1024〉
float32[1024]
var
〈1024〉
Add
Add_128
Relu
Relu_129
Conv
Conv_130
float32[256,1024,1,1]
W
〈256×1024×1×1〉
BatchNormalization
BatchNormalization_131
float32[256]
scale
〈256〉
float32[256]
B
〈256〉
float32[256]
mean
〈256〉
float32[256]
var
〈256〉
Relu
Relu_132
Conv
Conv_133
float32[256,256,3,3]
W
〈256×256×3×3〉
BatchNormalization
BatchNormalization_134
float32[256]
scale
〈256〉
float32[256]
B
〈256〉
float32[256]
mean
〈256〉
float32[256]
var
〈256〉
Relu
Relu_135
Conv
Conv_136
float32[1024,256,1,1]
W
〈1024×256×1×1〉
BatchNormalization
BatchNormalization_137
float32[1024]
scale
〈1024〉
float32[1024]
B
〈1024〉
float32[1024]
mean
〈1024〉
float32[1024]
var
〈1024〉
Add
Add_138
Relu
Relu_139
Conv
Conv_140
float32[512,1024,1,1]
W
〈512×1024×1×1〉
BatchNormalization
BatchNormalization_141
float32[512]
scale
〈512〉
float32[512]
B
〈512〉
float32[512]
mean
〈512〉
float32[512]
var
〈512〉
Relu
Relu_142
Conv
Conv_143
float32[512,512,3,3]
W
〈512×512×3×3〉
BatchNormalization
BatchNormalization_144
float32[512]
scale
〈512〉
float32[512]
B
〈512〉
float32[512]
mean
〈512〉
float32[512]
var
〈512〉
Relu
Relu_145
Conv
Conv_146
float32[2048,512,1,1]
W
〈2048×512×1×1〉
BatchNormalization
BatchNormalization_147
float32[2048]
scale
〈2048〉
float32[2048]
B
〈2048〉
float32[2048]
mean
〈2048〉
float32[2048]
var
〈2048〉
Conv
Conv_148
float32[2048,1024,1,1]
W
〈2048×1024×1×1〉
BatchNormalization
BatchNormalization_149
float32[2048]
scale
〈2048〉
float32[2048]
B
〈2048〉
float32[2048]
mean
〈2048〉
float32[2048]
var
〈2048〉
Add
Add_150
Relu
Relu_151
Conv
Conv_152
float32[512,2048,1,1]
W
〈512×2048×1×1〉
BatchNormalization
BatchNormalization_153
float32[512]
scale
〈512〉
float32[512]
B
〈512〉
float32[512]
mean
〈512〉
float32[512]
var
〈512〉
Relu
Relu_154
Conv
Conv_155
float32[512,512,3,3]
W
〈512×512×3×3〉
BatchNormalization
BatchNormalization_156
float32[512]
scale
〈512〉
float32[512]
B
〈512〉
float32[512]
mean
〈512〉
float32[512]
var
〈512〉
Relu
Relu_157
Conv
Conv_158
float32[2048,512,1,1]
W
〈2048×512×1×1〉
BatchNormalization
BatchNormalization_159
float32[2048]
scale
〈2048〉
float32[2048]
B
〈2048〉
float32[2048]
mean
〈2048〉
float32[2048]
var
〈2048〉
Add
Add_160
Relu
Relu_161
Conv
Conv_162
float32[512,2048,1,1]
W
〈512×2048×1×1〉
BatchNormalization
BatchNormalization_163
float32[512]
scale
〈512〉
float32[512]
B
〈512〉
float32[512]
mean
〈512〉
float32[512]
var
〈512〉
Relu
Relu_164
Conv
Conv_165
float32[512,512,3,3]
W
〈512×512×3×3〉
BatchNormalization
BatchNormalization_166
float32[512]
scale
〈512〉
float32[512]
B
〈512〉
float32[512]
mean
〈512〉
float32[512]
var
〈512〉
Relu
Relu_167
Conv
Conv_168
float32[2048,512,1,1]
W
〈2048×512×1×1〉
BatchNormalization
BatchNormalization_169
float32[2048]
scale
〈2048〉
float32[2048]
B
〈2048〉
float32[2048]
mean
〈2048〉
float32[2048]
var
〈2048〉
Add
Add_170
Relu
Relu_171
ConvTranspose
ConvTranspose_172
float32[2048,256,4,4]
W
〈2048×256×4×4〉
BatchNormalization
BatchNormalization_173
float32[256]
scale
〈256〉
float32[256]
B
〈256〉
float32[256]
mean
〈256〉
float32[256]
var
〈256〉
Relu
Relu_174
ConvTranspose
ConvTranspose_175
float32[256,256,4,4]
W
〈256×256×4×4〉
BatchNormalization
BatchNormalization_176
float32[256]
scale
〈256〉
float32[256]
B
〈256〉
float32[256]
mean
〈256〉
float32[256]
var
〈256〉
Relu
Relu_177
ConvTranspose
ConvTranspose_178
float32[256,256,4,4]
W
〈256×256×4×4〉
BatchNormalization
BatchNormalization_179
float32[256]
scale
〈256〉
float32[256]
B
〈256〉
float32[256]
mean
〈256〉
float32[256]
var
〈256〉
Relu
Relu_180
Conv
Conv_181
float32[17,256,1,1]
W
〈17×256×1×1〉
float32[17]
B
〈17〉
520
float32[1,17,64,48]
×
torch-jit-export
❮
Version
{version}
Copyright ©
Lutz Roeder
Open Model…
.
.
.
OK
≡