To Top
首页 > 图像处理 > 正文

EfficientNet

标签:EfficientNet, GPipe


目录

efficientnet

参考谷歌出品EfficientNet:比现有卷积网络小84倍,比GPipe快6.1倍

EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks

https://github.com/tensorflow/tpu/tree/master/models/official/efficientnet

目前提高CNN精度的方法,主要是通过任意增加CNN深度宽度,或使用更大的输入图像分辨率进行训练和评估。

以固定的资源成本开发,然后按比例放大,以便在获得更多资源时实现更好的准确性。例如ResNet可以通过增加层数从ResNet-18扩展到ResNet-200。

劣势就是,往往需要进行繁琐的微调。一点点的摸黑去试、还经常的徒劳无功

作者发现只要对网络的深度、宽度和分辨率进行合理地平衡,就能带来更好的性能。基于这一观察,科学家提出了一种新的缩放方法,使用简单但高效的复合系数均匀地缩放深度、宽度和分辨率的所有尺寸。

  • 第一步是执行网格搜索,在固定资源约束下找到基线网络的不同缩放维度之间的关系(例如,2倍FLOPS),这样做的目的是为了找出每个维度的适当缩放系数。
  • 然后应用这些系数,将基线网络扩展到所需的目标模型大小或算力预算。

与传统的缩放方法相比,这种复合缩放方法可以持续提高扩展模型的准确性和效率,和传统方法对比结果:MobileNet(+ 1.4% imagenet精度),ResNet(+ 0.7%)。

新模型缩放的有效性,很大程度上也依赖基线网络。

为了进一步提高性能,研究团队还通过使用AutoML MNAS框架执行神经架构搜索来开发新的基线网络,该框架优化了准确性和效率(FLOPS)。

由此产生的架构使用移动倒置瓶颈卷积(MBConv),类似于MobileNetV2和MnasNet,但由于FLOP预算增加而略大。然后,通过扩展基线网络以获得一系列模型,被称为EfficientNets。

改进版

AutoML构建加速器优化模型首尝试,谷歌发布EfficientNet-EdgeTPU

https://github.com/tensorflow/tpu/tree/master/models/official/efficientnet/edgetpu

https://coral.withgoogle.com/docs/

原文:https://ai.googleblog.com/2019/08/efficientnet-edgetpu-creating.html


原创文章,转载请注明出处!
本文链接:http://daiwk.github.io/posts/cv-efficientnet.html
上篇: fastspeech
下篇: VQ-VAE

comment here..