Adaptive Gradient Clipping:TensorFlow 2中最小化自适应梯度剪切(https:arxiv.orgabs2102.06171)
自适应梯度剪切 该存储库提供了一个最小的实施自适应限幅梯度(AGC)的在TensorFlow 2(如在高性能大规模图像识别提出不进行归1)纸为了训练,而不批次深神经网络属性AGC作为关键成分归一化2 。 鼓励读者查阅该论文,以了解为什么鉴于其最重要的成功,为什么可能希望在不进行批量标准化的情况下训练网络。 我使用此存储库的目标是能够快速训练带有或不带有AGC的浅层网络。 因此,我提供了两个我在下面讨论的Colab笔记本。 关于笔记本 AGC.ipynb :演示使用AGC训练浅层网络(仅0.0021.17百万个参数)。 BatchNorm.ipynb :演示了使用批处理归一化训练浅层网络(仅0.0023.09百万个参数)。 这两个笔记本都是Google Colab上的端到端可执行文件。 此外,他们还利用Google Colab提供的免费TPU(TPUv2-8),使读者可以非常快速地进行
文件列表
Adaptive-Gradient-Clipping-main.zip
(预估有个8文件)
Adaptive-Gradient-Clipping-main
.gitignore
34B
README.md
4KB
models.py
1KB
BatchNorm.ipynb
67KB
utils.py
378B
agc.py
2KB
AGC.ipynb
70KB
dataloader.py
3KB
暂无评论