主要介绍了Keras使用ImageNet上预训练的模型方式,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
我们提出了一种新的称为BERT的语言表示模型,BERT代表来自Transformer的双向编码器表示(BidirectionalEncoderRepresentationsfromTransform
https://github.com/fchollet/deep-learning-models/releases/tag/v0.1
这网址下的keras的所有的预训练模型,包含vgg16,vgg1
pytorch预训练模型vgg16-397923af.pth
StyleGAN是一种生成对抗网络,可以用来训练并生成某种图片。网上有训练好的模型,使用人脸数据集,训练好的模型可以GoogleDrive上下载,但国内需要翻墙,有需要的可以从这里下载,并使用已训练好
ESRGAN需要用到的预训练模型,下载后把里面的pth文件放到路径/experiments/pretrained_models路径下,里面包含两个预训练模型RRDB_ESRGAN_x4.pth和RRD
Google提出的开源人脸识别算法FaceNet的预训练模型,FaceNet的官方的预训练模型,20170511-185253 NOTE: If you use any of the models,
Google提出的开源人脸识别算法FaceNet的预训练模型,FaceNet的官方的预训练模型,20170512-110547 NOTE: If you use any of the models,
Google提出的开源人脸识别算法FaceNet的预训练模型,FaceNet的官方的预训练模型,20180408-102900 NOTE: If you use any of the models,
Google提出的开源人脸识别算法FaceNet的预训练模型,FaceNet的官方的预训练模型,20180402-114759 NOTE: If you use any of the models,