# model distillation
sequencelevel knowledge distillation
sequence-levelknowledgedistillation
distillation.zip
这个是一位博主写的蒸馏代码例子使用的是resnet18网络作为教师网络,自定义cnn为学生网络,也提供了训练好的模型
distillation.7z
这个是知识蒸馏代码,其中包含数据集,可以直接训练,先训练teacher代码,在训练学生代码学生代码是CNN,RESNET老师代码
Parallel_Independent_Blockwise_Distillation
Parallel-Independent-Blockwise-Distillation
Localization Distillation for Dense Object Detection
知识蒸馏KD在目标检测中学习紧凑模型方面的强大能力.以往的目标检测KD方法主要集中在模仿模仿区域内的深度特征而不是模拟分类log
Efficient Image Inpainting with Knowledge Distillation
基于知识蒸馏的高效图像修复,成楚璇,沈奇威,近年来,深度学习在图像分类、识别、分割和生成领域都取得了突破性进展。基于深度学习的图
Privileged Features Distillation for E Commerce Recommendations
KDD2020论文Privileged Features Distillation for E-Commerce Recomme
Entanglement distillation and concentration by onedimensional anisotropic photon
利用一维各向异性光子晶体实现纠缠提纯,董云霞,张向东,本文提供了一个利用一维各向异性光子晶体实现纠缠提纯的方法。这个方法不仅适用
Structured Attention Knowledge Distillation for Lightweight Netw
知识蒸馏是通过设计的损失函数将教师网络学到的有效知识转移到学生网络中帮助学生网络以更低的计算成本获得更好的性能.但是当学生网络和
RDCAB RecursiveSRNet Feature Distillation Refinement源码
基于剩余密集通道注意块-递归SRNet的单图像超分辨率(IPIU,2021.02.03〜05) RDCAB-RecursivSR