torch.topk
功能:找出前k大的数据,及其索引号
input:张量
k:决定选取k个值,k=1是为top-1
dim:索引维度
返回:
Tensor:前k大的值
LongTensor:前k大的值所在的位置
torch.topk(input, k, dim=None,largest=True,sorted=True,out=None )
torchvision.utils.make_grid
功能:制作网格图像
tensor:图像数据,BCHW形式
nrow:行数(列数自动计算)
padding:图像间距(像素单位)
normalize:是否将像素值标准化
range:标准化范围
scale_each:是否单张图维度标准化
pad_value:padding的像素值
make_grid(tensor, nrow=8, padding=2, normalize=False,range=None,scale_each=False, pad_value=0)
代码结构
注意事项
采用norm_mean=[0.485,0.456,0.406]
norm_std=[0.229,0.224,0.225]
这两个是通过Image数据集统计的均值和标准差,但是后面用BatchNormalization就可以不用这个。
transforms.ToTensor()区间是[0,1]
img_tensor.unsqueeze_(0) #chw->bchw
with torch.no_grad():
默认情况下会记录grad,如果只是test情况下不需要做反向传播,就可以用torch.no_grad()只做前向传播省时间。
log_interval,多少个epoch打印信息
val_interval,多少个epoch执行验证集
lr_decay_step=1,学习率多少个epoch改变
transforms.Resize((256))只是短边截为256,长边成比例缩短。
transforms.Resize((256,256))是正方形
# ============================ step 4/5 优化器 ============================
# 冻结卷积层
flag = 0
# flag = 1
if flag:
fc_params_id = list(map(id, alexnet_model.classifier.parameters())) # 返回的是parameters的 内存地址
base_params = filter(lambda p: id(p) not in fc_params_id, alexnet_model.parameters())
optimizer = optim.SGD([
{'params': base_params, 'lr': LR * 0.1}, # 0 设置为0即冻结卷积层
{'params': alexnet_model.classifier.parameters(), 'lr': LR}], momentum=0.9)
bs, ncrops, c, h, w = inputs.size() # [4, 10, 3, 224, 224
outputs = alexnet_model(inputs.view(-1, c, h, w))
outputs_avg = outputs.view(bs, ncrops, -1).mean(1)
ncrops是分割多出的10张图,然后对10张图结果取平均。
流程就是对4batch的每个10张图的图片进行调整,先将4*10,3,224,224输入model中,对结果进行分割出来,得到4batch的结果。
手机扫一扫
移动阅读更方便
你可能感兴趣的文章