kears下imageNet数据集的预训练模型
https://github.com/fchollet/deep-learning-models/releases/tag/v0.1
这网址下的keras的所有的预训练模型,包含vgg16,vgg19,resnt50,官方下载实在是太慢了。我这里提供了百度云链接,注册一天的百度云会员下载会很快的。
用户评论
推荐下载
-
ChatGPT预训练模型的Transformer结构和训练过程解读
ChatGPT预训练模型是由深度神经网络组成的多层网络,其采用Transformer模型来建立词与词之间的复杂关系。Transformer模型主要由Encoder和Decoder两部分组成,并通过监督
11 2023-07-28 -
Python腾讯发布的大规模多标签图像数据集和ResNet101预训练模型
腾讯发布的大规模多标签图像数据集和ResNet-101预训练模型,这个模型在ImageNet数据集上达到 80.73% top-1 acc
20 2020-08-22 -
用于SiamRPN的预训练模型AlexNet.pth
Pre-training model for SiamRPN AlexNet.pth
95 2019-06-26 -
yolo官方预训练模型的权重与配置
yolo官方预训练模型的权重与配置文件,可用于吴恩达深度学习课程的作业(需利用AllanZenlener的YAD2K转换为h5文件)
51 2019-04-27 -
ResNet_SSD网络的VOC预训练模型
ResNet_SSD网络的VOC预训练模型
24 2021-01-15 -
VGG_SSD网络的VOC预训练模型
VGG_SSD网络的VOC预训练模型
19 2021-01-16 -
自然语言处理中的预训练模型
目前预训练模型在自然语言处理领域取得了广泛的成功。本报告的内容主要涵盖以下4部分内容:1)预训练模型的原理介绍,包括模型结构、学习准则、发展历程等;2)预训练模型的迁移方法:包括如何通过任务转换、多步
668 2020-12-20 -
Pytorch加载部分预训练模型的参数实例
今天小编就为大家分享一篇Pytorch加载部分预训练模型的参数实例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
24 2020-10-14 -
BERT预训练的深度双向Transformer语言模型
我们提出了一种新的称为BERT的语言表示模型,BERT代表来自Transformer的双向编码器表示(BidirectionalEncoderRepresentationsfromTransform
70 2020-05-06 -
StyleGAN用到的预训练无模型只是代码
StyleGAN是一种生成对抗网络,可以用来训练并生成某种图片。网上有训练好的模型,使用人脸数据集,训练好的模型可以GoogleDrive上下载,但国内需要翻墙,有需要的可以从这里下载,并使用已训练好
51 2019-09-22
暂无评论