肥宅钓鱼网
当前位置: 首页 钓鱼百科

一个简单的预测模型(小模型大趋势Google提出两个模型)

时间:2023-07-08 作者: 小编 阅读量: 1 栏目名: 钓鱼百科

渐进式训练已用于图像分类、GANs和语言模型,并取得了不错的效果。受这一观察结果的启发,研究人员进一步将研究范围扩展到卷积神经网络之外,以期找到更快、更准确的视觉模型。尺寸随着每个阶段继续减小。与之前ViT中的Transformer块不同,这里使用阶段之间的池化,类似于FunnelTransformer。最后,我们分类头来生成类别预测概率。CoAtNet模型在许多数据集中始终优于ViT模型及其变体。研究人员还在大规模JFT数据集上评估了CoAtNets。

一个简单的预测模型?来源:Google AI编辑:LRS,下面我们就来聊聊关于一个简单的预测模型?接下来我们就一起去了解一下吧!

一个简单的预测模型

来源:Google AI

编辑:LRS

【新智元导读】模型在更小、更快和更准之间矛盾吗?能同时达到这几个效果吗?Google Research提出两个模型EfficientNetV2和CoAtNet,竟然同时做到了这三点,模型下降7倍,训练速度提升10倍,还能拿到sota!

随着神经网络模型和训练数据规模的增长,训练效率正成为深度学习的一个重要焦点。

GPT-3 在小样本学习中表现出卓越的能力,但它需要使用数千个 GPU 进行数周的训练,因此很难重新训练或改进。

相反,如果可以设计出更小、更快、但更准确的神经网络会怎样?

Google 就提出了两类通过神经架构和基于模型容量和泛化性的原则性设计方法(principled design methodology)得到的神经网络模型用来图像识别。

第一个是ICML 2021上提出的EfficientNetV2,主要由卷积神经网络组成,旨在为相对较小的数据集(如ImageNet1k,有128万张图像)提供更快的训练速度。

EfficientNet V2基于以前的EfficientNet架构,为了改进原有的方法,Google 研究团队系统地研究了现代模型TPU/GPU上的训练速度瓶颈,有几个发现:

1、使用非常大的图像进行训练会导致更高的内存使用率,从而导致TPU/GPU上的训练速度通常较慢;

2、广泛使用的深度卷积在TPU/GPU上效率低下,因为它们的硬件利用率较低;

3、常用的uniform compound scaling将卷积网络的每个阶段平均放大,但这并不是最优方法。

为了解决这些问题,研究人员提出了一种面向训练感知的神经架构搜索(train-aware NAS),其中训练速度也包含在优化目标中,并且使用一种以非均匀方式在不同阶段进行缩放,模型代码也已开源。

文章的第一作者是Mingxing Tan,

训练感知 NAS 的架构基于之前的平台感知 platform-aware NAS,但与原方法主要关注推理速度不同,训练感知 NAS 同时优化模型精度、模型大小和训练速度。

模型还扩展了原始搜索空间以包含更多对加速器有利的操作,例如 FusedMBConv 通过删除不必要的操作(例如 平均池化和最大池化)来简化搜索空间。

由此产生的 EfficientNetV2 网络在所有以前的模型上都实现了更高的准确性,同时速度更快,体积缩小了 6.8 倍。

为了进一步加快训练过程,研究人员还提出了一种增强的渐进学习方法(progressive learning),该方法在训练过程中逐渐改变图像大小和正则化幅度。

渐进式训练已用于图像分类、GANs和语言模型,并取得了不错的效果。该方法侧重于图像分类,但与以前的方法不同的是,之前的方法通常以精度换取更高的训练速度,它可以略微提高精度,同时显著减少训练时间。

改进方法的关键思想是根据图像大小自适应地改变正则化强度,如dropout 的概率或数据增强程度。对于相同的网络,较小的图像大小导致网络容量较低,因此需要弱正则化;反之亦然,较大的图像大小需要更强的正则化来防止过度拟合。

在 ImageNet 和一些迁移学习数据集上,例如 CIFAR-10/100、Flowers 和 Cars 来评估 EfficientNetV2 模型。在 ImageNet 上,EfficientNetV2 显着优于以前的模型,训练速度提高了约 5-11 倍,模型尺寸缩小了 6.8 倍,准确率没有任何下降。

第二类是CoAtNet,一种结合了卷积和自注意的混合模型,其目标是在大规模数据集上实现更高的精度,如ImageNet21(有1300万张图像)和JFT(有数十亿张图像)。

虽然EfficientNetV2仍然是一个典型的卷积神经网络,但最近对视觉Transformer(visual Transformer, ViT)的研究表明,基于注意的Transfomer 模型在JFT-300M等大规模数据集上的性能优于卷积神经网络。

受这一观察结果的启发,研究人员进一步将研究范围扩展到卷积神经网络之外,以期找到更快、更准确的视觉模型。

研究者系统地研究如何结合卷积和自注意力来开发用于大规模图像识别的快速准确的神经网络。工作结果基于一个观察结论,即卷积由于其归纳偏差(inductive bias)通常具有更好的泛化能力(即训练和评估之间的性能差距),而自注意力Transformer由于其对全局建模的能力更强,所以往往具有更强大的概括能力(即适应大规模训练的能力) 。

通过结合卷积和自注意力,得到的混合模型可以实现更好的泛化和更大的容量。

深度卷积和自注意力可以通过简单的相对注意力自然地统一起来,并且垂直堆叠卷积层和注意力层,可以同时考虑到每个阶段所需的容量和计算能力,从而提高泛化性、容量和效率。

在 CoAtNet 架构中,给定大小为 HxW 的输入图像,首先在第一个stem阶段 (S0) 应用卷积并将大小减小到 H/2 x W/2。尺寸随着每个阶段继续减小。Ln 是指层数。前两个阶段(S1和S2)主要采用深度卷积组成的MBConv构建块。后两个阶段(S3和S4)主要采用具有relative self-attention的Transformer块。与之前 ViT 中的 Transformer 块不同,这里使用阶段之间的池化,类似于 Funnel Transformer。最后,我们分类头来生成类别预测概率。

CoAtNet 模型在许多数据集(例如 ImageNet1K、ImageNet21K 和 JFT)中始终优于 ViT 模型及其变体。与卷积网络相比,CoAtNet 在小规模数据集 (ImageNet1K) 上表现出相当的性能,并且随着数据大小的增加(例如在 ImageNet21K 和 JFT 上)取得了可观的收益。

研究人员还在大规模 JFT 数据集上评估了 CoAtNets。为了达到类似的准确度目标,CoAtNet 的训练速度比以前的 ViT 模型快 4 倍,更重要的是,在 ImageNet 上达到了 90.88% 的新的最先进的 top-1 准确度。

与以前的结果相比,新提出的模型速度快了4-10倍,同时在完善的ImageNet数据集上实现了最先进的90.88%top-1精度。

参考资料:

http://ai.googleblog.com/2021/09/toward-fast-and-accurate-neural.html?m=1

    推荐阅读
  • 枇杷果什么味道(枇杷果简单介绍)

    枇杷果什么味道枇杷的味道酸甜可口,肉质极为细腻,品质上乘的枇杷果肉柔软多汁、甘甜酸爽,吃起来生津止渴。成熟的枇杷味道甜美,是营养丰富的保健水果,它含有各种果糖、葡萄糖、钾、磷、铁、钙以及维生素A、B、C等。其中胡萝卜素含量在各水果中位列第三位。枇杷的花为白色或淡黄色,有五块花瓣,直径约2厘米,以五至十朵成一束,可以作为蜜源作物。

  • 什么样的大白菜可以吃(大白菜最全食用指南)

    还有一个小秘密告诉大家,白菜菜叶中的维生素C高于白菜帮,但纤维素却不如白菜帮。爆炒可以选择白菜帮,其粗纤维含量高,比较适合爆炒。白菜帮水分含量较高,在爆炒过程中会出水,因此烹调时不用加水。需要提醒的是,凉拌菜最好现做现吃,以免受到杂菌污染。疫情期间尽量避免给孩子生吃,在加工的时候可以简单焯一下。蒸可以留住美味,有效减少营养流失。在此提醒,家长尽量不要给孩子吃太多腌制食物。

  • 创意课堂设计(点赞脑洞大开的设计)

    点赞脑洞大开的设计一根网线,两块屏幕线上教学的时代,参与式互动是不是变得很难?然而,胡业飞老师却认为,教师和学生都是优质课程的主创者在他的课堂上,参与式教学依旧火热如常线上课,不燃怎样?他讲授的“企业形象设计”是面向经。

  • 简短的过年祝福语有哪些(形容简短的新年优秀祝福语示例)

    简短的过年祝福语有哪些新年到了,衷心祝福你。祝你年年圆满如意,月月事事顺心,日日喜悦无忧,时时高兴欢喜,刻刻充满朝气!在此新年之际,我同夫人向你及你的家人致以节日的问候,并祝你们新年快乐、事业有成、家庭幸福。祝你身体健康,心情越来越好,人越来越漂亮!祝福是份真心意,不是千言万语的表白。家乡米酒那叫香,热乎饺子惹人馋。亲爱的,因为牵了你的手,所以我要抓住你的手。

  • 彝族的传统节日是什么(都有哪些节日)

    火把节传说古时撒尼百姓为了反抗一个暴虐的土司而起义,为了庆祝胜利,把这一天定为火把节。火把节一般欢度三天,头一天全家欢聚,后两天举办摔跤、赛马、斗牛、竞舟、拔河等丰富多彩的活动,然后举行盛大的篝火晚会,彻夜狂欢。到中午时,男人不论大小都集中到两位“麻公巴”家喝酒。“麻公巴”据说是祖先打仗时首领的化身,人们在他家只喝酒不吃饭。每年农历十月,彝族人民都要过庆年节,并相互拜祝,载歌欢舞,祝贺节日。

  • 斗鱼三大户外主播(斗鱼主播线下聚餐明码标价)

    众所周知,斗鱼直播平台会在五月份左右举办一年一度的斗鱼嘉年华,其间直播平台不仅将举办各种线下活动召集水友们一起狂欢,还会邀请平台里几乎所有有头有脸的主播亲临现场跟粉丝们互动。讲道理,主播自己不生产任何价值,收入全靠粉丝打赏,所以对打赏多的粉丝优待一些也说得过去。因此,也有不少粉丝质疑,这样明码标价出售自己的行为,有点儿太寒老粉的心了。类似这样的事件就是其中的原因之一。

  • 淄博众信热力开发有限公司负责哪一片供暖

    淄博众信热力开发有限公司主要供热区域:周村区北郊镇各居民小区、山东农业工程学院、青岛科技大学、淄博职业学院等单位。

  • 长安马自达昂克赛拉保养灯怎么归零 马自达axela昂克赛拉保养灯归零

    此时,中央液晶屏显示车辆保养信息。安赛拉有驾驶电脑的保养里程提示。如果没有保持里程,保养灯将点亮。日常保养中稍有不慎,不仅会对汽车造成不必要的损坏,还会危及行车安全。长安马自达汽车生产的马自达吴哥塞拉是第三款搭载新一代“创驰蓝天”技术,以“灵魂运动”为全新设计主题的车型。该车型在优先保障行车安全的先进人机界面基础上,首次应用了“MZD联通马自达连岳系统”。整车配置始终体现科技化、人性化的驾驶体验。

  • 北京哪个购物商圈便宜(盘点北京16个购物商圈)

    北京哪个购物商圈便宜作者:萧汉北京有很多商圈,迎合着不同的消费人群,喜欢哪个购物中心,因人而异,每个人考察的点不一样。今天我们就为大家推荐16个北京优质的购物商圈,在这个国庆假期,可以来此逛逛。时尚,光鲜,靓丽,是北京城西一个精品荟萃的餐饮娱乐、休闲放松、聚会消遣的多维空间。

  • 4s店二级经销商价格(4S店的好伙伴之二级经销商)

    二级经销商:俗称二级代理商,没有厂家的授权,弄个门头,收订单,然后全国给客户找车,那里的车便宜,就去那个城市的4S店提车。赚的是差价、保险、贷款、精品、挂牌等费用,也可以称之为中介、黄牛。而伴随着4S店不断的增加网点,现在二级经销商,已经利用线上,进行全国的业务往来。同时通过二级买车,必须把验车环节做好。