从预培训到部署的带有SentencePiece的fast.ai ULMFiT 动机:为什么还要打扰非BERT / Transformer语言模型? 简短的答案:您可以使用ULMFiT在有限的数据和负担
官网发布的tensorflow2.0版本以后可使用的BERT中文预训练模型文件,适合无法的伙伴使用tf2 进行fine tuning
当神经网络具有许多参数时,它们的效果最佳,这使它们成为功能强大的函数逼近器。但是,这意味着必须对非常大的数据集进行训练。由于从头开始训练模型可能是一个非常耗费计算量的过程,需要几天甚至几周的时间,因此
files fast.ai models weights 下载 1.1G数据太大,官网龟速而且容易断,故传百度云。
ssd_vgg_tensorflow的预训练模型,方便无法使用百度网盘和google网盘的人下载。
Tiny-yolo预训练模型darknet.conv.weights做初始化,进行后期精调
yolov4剪枝后预训练模型
该文件是SkyAR项目的预训练模型。Castle in the Sky: Dynamic Sky Replacement and Harmonization in Videos
YOLO预训练模型包括yolov3.weights、yolov3-tiny.weights、yolov3-voc_900.weights、darknet19_448.conv.23、darknet53
drn54 pytorch 预训练模型,官网不太好下载,下载速度慢我把这个下好以后上传上来了。主要是用于加载预训练的权重。