# model distillation

sequencelevel knowledge distillation

sequence-levelknowledgedistillation
24 PDF 2020-02-16

distillation.zip

这个是一位博主写的蒸馏代码例子使用的是resnet18网络作为教师网络,自定义cnn为学生网络,也提供了训练好的模型
14 ZIP 2020-07-20

distillation.7z

这个是知识蒸馏代码,其中包含数据集,可以直接训练,先训练teacher代码,在训练学生代码学生代码是CNN,RESNET老师代码
7 7Z 2020-07-20

Parallel_Independent_Blockwise_Distillation

Parallel-Independent-Blockwise-Distillation
6 .zip 2021-01-24

Localization Distillation for Dense Object Detection

知识蒸馏KD在目标检测中学习紧凑模型方面的强大能力.以往的目标检测KD方法主要集中在模仿模仿区域内的深度特征而不是模拟分类log
20 pdf 2023-02-08

Efficient Image Inpainting with Knowledge Distillation

基于知识蒸馏的高效图像修复,成楚璇,沈奇威,近年来,深度学习在图像分类、识别、分割和生成领域都取得了突破性进展。基于深度学习的图
22 PDF 2020-07-20

Privileged Features Distillation for E Commerce Recommendations

KDD2020论文Privileged Features Distillation for E-Commerce Recomme
4 PDF 2020-12-28

Entanglement distillation and concentration by onedimensional anisotropic photon

利用一维各向异性光子晶体实现纠缠提纯,董云霞,张向东,本文提供了一个利用一维各向异性光子晶体实现纠缠提纯的方法。这个方法不仅适用
24 PDF 2020-03-28

Structured Attention Knowledge Distillation for Lightweight Netw

知识蒸馏是通过设计的损失函数将教师网络学到的有效知识转移到学生网络中帮助学生网络以更低的计算成本获得更好的性能.但是当学生网络和
23 pdf 2023-01-19

RDCAB RecursiveSRNet Feature Distillation Refinement源码

基于剩余密集通道注意块-递归SRNet的单图像超分辨率(IPIU,2021.02.03〜05) RDCAB-RecursivSR
5 ZIP 2021-04-27