暂无评论
我们提出了一种新的称为BERT的语言表示模型,BERT代表来自Transformer的双向编码器表示(BidirectionalEncoderRepresentationsfromTransform
https://github.com/fchollet/deep-learning-models/releases/tag/v0.1 这网址下的keras的所有的预训练模型,包含vgg16,vgg1
pytorch预训练模型vgg16-397923af.pth
StyleGAN是一种生成对抗网络,可以用来训练并生成某种图片。网上有训练好的模型,使用人脸数据集,训练好的模型可以GoogleDrive上下载,但国内需要翻墙,有需要的可以从这里下载,并使用已训练好
ESRGAN需要用到的预训练模型,下载后把里面的pth文件放到路径/experiments/pretrained_models路径下,里面包含两个预训练模型RRDB_ESRGAN_x4.pth和RRD
有能力和有耐心的可以去这里下载: https://download.pytorch.org/models/resnet101-5d3b4d8f.pth
VGG16预训练模型"vgg_url":"ftp://mi.eng.cam.ac.uk/pub/mttt2/models/vgg16.npy"
Pre-training model for SiamRPN AlexNet.pth
yolo官方预训练模型的权重与配置文件,可用于吴恩达深度学习课程的作业(需利用AllanZenlener的YAD2K转换为h5文件)
BERTGoogle官方预训练模型中文版.基于Transformer变换器的双向编码器表示BERT技术由Google开发通过在所有层中共同调整左右情境利用无标记文本预先训练深度双向表示.该技术于201
暂无评论