游侠的博客 游侠的博客
首页
  • 论文笔记
  • 一些小知识点

    • pytorch、numpy、pandas函数简易解释
  • 《深度学习500问》
开发
技术
更多
关于
收藏
  • 分类
  • 标签
  • 归档
GitHub (opens new window)

Ranger

一名在校研究生
首页
  • 论文笔记
  • 一些小知识点

    • pytorch、numpy、pandas函数简易解释
  • 《深度学习500问》
开发
技术
更多
关于
收藏
  • 分类
  • 标签
  • 归档
GitHub (opens new window)
  • 论文笔记

  • 一些小知识点

    • pytorch、numpy、pandas函数简易解释【持续更新ing】
    • BatchNorm和LayerNorm的区别
    • 监督学习步骤
    • 分类算法的评价指标
    • 生成模型判别模型区别
    • 常见损失函数及说明
    • LDA与PCA降维方法
    • nn.Sequential作用
    • one-hot编码
    • python中的zip函数
    • 关于nn.CrossEntropyLoss的一些小说明
    • 关于使用全局平均池化需要注意的地方
      • 踩的坑
      • 吸取的教训
    • L2正则化、归一化、范数
  • 《深度学习500问》

  • pytorch知识点

  • 人工智能
  • 一些小知识点
yangzhixuan
2023-07-18
目录

关于使用全局平均池化需要注意的地方

# 踩的坑

之前在做实验的时候,发现网络训练不动,经过调试发现输入的数据在过了一层全局平均池化之后都变为了接近0的值,起初以为是平均池化的锅,找了半天没找到问题所在。

后来仔细检查网络结构时发现,我在使用全局平均池化前有一个Transformer的编码器层,无意之间又看了看,发现最后的输出要做一个layernorm,猛然惊醒,layernorm 会将一个特征里的数据转换为均值为0,方差为1的形式,均值为0。。。。。。。。这不就是为什么后面的全局平均池化计算结果为0的原因吗,困扰了许久的bug终于解决了。。。。

# 吸取的教训

以后在使用全局平均池化之前一定要注意是不是使用了归一化操作,仔细检查归一化作用的维度以及平均池化作用的维度是否一致!!!

编辑 (opens new window)
上次更新: 2024/05/30, 07:49:34
关于nn.CrossEntropyLoss的一些小说明
L2正则化、归一化、范数

← 关于nn.CrossEntropyLoss的一些小说明 L2正则化、归一化、范数→

最近更新
01
tensor比较大小函数
05-30
02
Large Language Models can Deliver Accurate and Interpretable Time Series Anomaly Detection
05-27
03
半监督学习经典方法 Π-model、Mean Teacher
04-10
更多文章>
Theme by Vdoing | Copyright © 2023-2024 Ranger | MIT License
  • 跟随系统
  • 浅色模式
  • 深色模式
  • 阅读模式