训练自己的MNASNET 动机 我们试图从实现这个MNASNET网络从头开始-并未能实现与我们所用的方法所要求的精度。 嗯,可能这就是为什么在Cadene的存储库中,仅从TF NASNET移动版的原因? 好吧,很高兴知道ImageNet上的培训网络并不像听起来那样简单。 即使我们未能在MNASNET上达到75-76%的top1精度要求,我们仍然相信最有可能的是训练方法(?)。 根据我们在各种培训制度下的经验,这些网络似乎在最高精度上达到了35-40%的峰值。 同样,也许我们应该等待15-30个ImageNET时期以上才能确认培训已停止,但谁知道呢。 事实是,Google在其声称使用了: