肥宅钓鱼网
当前位置: 首页 钓鱼百科

一个简单的预测模型(小模型大趋势Google提出两个模型)

时间:2023-07-08 作者: 小编 阅读量: 1 栏目名: 钓鱼百科

渐进式训练已用于图像分类、GANs和语言模型,并取得了不错的效果。受这一观察结果的启发,研究人员进一步将研究范围扩展到卷积神经网络之外,以期找到更快、更准确的视觉模型。尺寸随着每个阶段继续减小。与之前ViT中的Transformer块不同,这里使用阶段之间的池化,类似于FunnelTransformer。最后,我们分类头来生成类别预测概率。CoAtNet模型在许多数据集中始终优于ViT模型及其变体。研究人员还在大规模JFT数据集上评估了CoAtNets。

一个简单的预测模型?来源:Google AI编辑:LRS,下面我们就来聊聊关于一个简单的预测模型?接下来我们就一起去了解一下吧!

一个简单的预测模型

来源:Google AI

编辑:LRS

【新智元导读】模型在更小、更快和更准之间矛盾吗?能同时达到这几个效果吗?Google Research提出两个模型EfficientNetV2和CoAtNet,竟然同时做到了这三点,模型下降7倍,训练速度提升10倍,还能拿到sota!

随着神经网络模型和训练数据规模的增长,训练效率正成为深度学习的一个重要焦点。

GPT-3 在小样本学习中表现出卓越的能力,但它需要使用数千个 GPU 进行数周的训练,因此很难重新训练或改进。

相反,如果可以设计出更小、更快、但更准确的神经网络会怎样?

Google 就提出了两类通过神经架构和基于模型容量和泛化性的原则性设计方法(principled design methodology)得到的神经网络模型用来图像识别。

第一个是ICML 2021上提出的EfficientNetV2,主要由卷积神经网络组成,旨在为相对较小的数据集(如ImageNet1k,有128万张图像)提供更快的训练速度。

EfficientNet V2基于以前的EfficientNet架构,为了改进原有的方法,Google 研究团队系统地研究了现代模型TPU/GPU上的训练速度瓶颈,有几个发现:

1、使用非常大的图像进行训练会导致更高的内存使用率,从而导致TPU/GPU上的训练速度通常较慢;

2、广泛使用的深度卷积在TPU/GPU上效率低下,因为它们的硬件利用率较低;

3、常用的uniform compound scaling将卷积网络的每个阶段平均放大,但这并不是最优方法。

为了解决这些问题,研究人员提出了一种面向训练感知的神经架构搜索(train-aware NAS),其中训练速度也包含在优化目标中,并且使用一种以非均匀方式在不同阶段进行缩放,模型代码也已开源。

文章的第一作者是Mingxing Tan,

训练感知 NAS 的架构基于之前的平台感知 platform-aware NAS,但与原方法主要关注推理速度不同,训练感知 NAS 同时优化模型精度、模型大小和训练速度。

模型还扩展了原始搜索空间以包含更多对加速器有利的操作,例如 FusedMBConv 通过删除不必要的操作(例如 平均池化和最大池化)来简化搜索空间。

由此产生的 EfficientNetV2 网络在所有以前的模型上都实现了更高的准确性,同时速度更快,体积缩小了 6.8 倍。

为了进一步加快训练过程,研究人员还提出了一种增强的渐进学习方法(progressive learning),该方法在训练过程中逐渐改变图像大小和正则化幅度。

渐进式训练已用于图像分类、GANs和语言模型,并取得了不错的效果。该方法侧重于图像分类,但与以前的方法不同的是,之前的方法通常以精度换取更高的训练速度,它可以略微提高精度,同时显著减少训练时间。

改进方法的关键思想是根据图像大小自适应地改变正则化强度,如dropout 的概率或数据增强程度。对于相同的网络,较小的图像大小导致网络容量较低,因此需要弱正则化;反之亦然,较大的图像大小需要更强的正则化来防止过度拟合。

在 ImageNet 和一些迁移学习数据集上,例如 CIFAR-10/100、Flowers 和 Cars 来评估 EfficientNetV2 模型。在 ImageNet 上,EfficientNetV2 显着优于以前的模型,训练速度提高了约 5-11 倍,模型尺寸缩小了 6.8 倍,准确率没有任何下降。

第二类是CoAtNet,一种结合了卷积和自注意的混合模型,其目标是在大规模数据集上实现更高的精度,如ImageNet21(有1300万张图像)和JFT(有数十亿张图像)。

虽然EfficientNetV2仍然是一个典型的卷积神经网络,但最近对视觉Transformer(visual Transformer, ViT)的研究表明,基于注意的Transfomer 模型在JFT-300M等大规模数据集上的性能优于卷积神经网络。

受这一观察结果的启发,研究人员进一步将研究范围扩展到卷积神经网络之外,以期找到更快、更准确的视觉模型。

研究者系统地研究如何结合卷积和自注意力来开发用于大规模图像识别的快速准确的神经网络。工作结果基于一个观察结论,即卷积由于其归纳偏差(inductive bias)通常具有更好的泛化能力(即训练和评估之间的性能差距),而自注意力Transformer由于其对全局建模的能力更强,所以往往具有更强大的概括能力(即适应大规模训练的能力) 。

通过结合卷积和自注意力,得到的混合模型可以实现更好的泛化和更大的容量。

深度卷积和自注意力可以通过简单的相对注意力自然地统一起来,并且垂直堆叠卷积层和注意力层,可以同时考虑到每个阶段所需的容量和计算能力,从而提高泛化性、容量和效率。

在 CoAtNet 架构中,给定大小为 HxW 的输入图像,首先在第一个stem阶段 (S0) 应用卷积并将大小减小到 H/2 x W/2。尺寸随着每个阶段继续减小。Ln 是指层数。前两个阶段(S1和S2)主要采用深度卷积组成的MBConv构建块。后两个阶段(S3和S4)主要采用具有relative self-attention的Transformer块。与之前 ViT 中的 Transformer 块不同,这里使用阶段之间的池化,类似于 Funnel Transformer。最后,我们分类头来生成类别预测概率。

CoAtNet 模型在许多数据集(例如 ImageNet1K、ImageNet21K 和 JFT)中始终优于 ViT 模型及其变体。与卷积网络相比,CoAtNet 在小规模数据集 (ImageNet1K) 上表现出相当的性能,并且随着数据大小的增加(例如在 ImageNet21K 和 JFT 上)取得了可观的收益。

研究人员还在大规模 JFT 数据集上评估了 CoAtNets。为了达到类似的准确度目标,CoAtNet 的训练速度比以前的 ViT 模型快 4 倍,更重要的是,在 ImageNet 上达到了 90.88% 的新的最先进的 top-1 准确度。

与以前的结果相比,新提出的模型速度快了4-10倍,同时在完善的ImageNet数据集上实现了最先进的90.88%top-1精度。

参考资料:

http://ai.googleblog.com/2021/09/toward-fast-and-accurate-neural.html?m=1

    推荐阅读
  • lol源计划通行证结束时间(LOL爷青结客户端崩溃问题引官方重视)

    新英雄和新皮肤纵观整个官方介绍的视频,一个非常重要的信息就是有新英雄和新皮肤了:新皮肤的名字叫太空律动,新英雄的有关图案公布了,他将会是一个上路英雄。这次的新皮肤,更大可能应该是作为前作系列皮肤的一个补充,扩大皮肤的所属英雄。不过相比于新英雄,瓜农君更关心的其实是新英雄的发挥稳定性。今年过后,客户端崩溃的问题将不复存在,玩家的游戏体验将会有重大提升。

  • 芒果可以做什么美味的食物(大家听说过芒果可以做菜吗)

    芒果可以做什么美味的食物芒果是热带水果,一般成熟变软后去皮即食,入口即化,香甜可口,深受消费者的喜欢。相信很少人知道芒果也可以做菜的。芒果有几个品种,优选做菜用的芒果品种是:大青芒果。去皮后用刀把芒果切成小块。以下共享小编自己煮的芒果菜,仅供大家参考。下锅方法:先烧开油锅,放姜、蒜鸡肉料酒炒至7分熟,接着放青椒、萝卜丝、芒果,根据自己的口味适当加盐和酱油。这是小编煮的芒果菜,味道好极了。

  • 乌兹别克斯坦主要禁忌(乌兹别克斯坦有哪些禁忌)

    乌兹别克斯坦主要禁忌他们忌讳左手传递东西或食物,认为使用左手是不礼貌的。他们对妇女撩裙而坐是看不惯的,认为露出大腿有引诱男子之嫌,是伤风败俗的行为。他们忌讳黑色,认为黑色是丧葬的色彩。如果去乌兹别克斯坦人家里做客时,要客随主便,如果端来饮料就喝一点,如果端来吃的就吃一点,这才算礼貌。参加乌兹别克斯坦的宴会上不能拒绝主人递来的馕,整个馕不可扣放在桌子上,不能刀切,只能用手掰。

  • 酸排骨的做法和配方(怎么做酸排骨)

    酸排骨的做法和配方原料:猪排骨400克、熟芝麻25克、盐2克、花椒2克、料酒15克、姜10克、葱10克、素油500克、鲜汤150克、醋50克、白糖100克、香油10克。猪排骨斩成长约5厘米的节,入沸水内出水,捞出装入蒸盆中,加盐、花椒、料酒、姜、葱、鲜汤入笼蒸至肉离骨时,取出排骨。

  • 用手机更改WIFI密码 简单快速完成

    注意事项2:、点击“保存”按钮后,会退出当前的登录状态,需要使用新的登录密码,重新登录到设置界面。注意事项1:、部分无线路由器,在修改了wifi密码后,会提示重启路由器;这时候按照提示重启一下无线路由器即可。

  • 许多人不知道但又很好用的软件(软件更新的一些小秘密)

    每次软件更新,总有小伙伴说自己没有显示更新。出现这种情况,绝大部分的都是使用iOS系统。曾经有一次微信版本的更新,同事早早就就更新了,而我在刷了三个小时的AppStore之后,才出现了那个熟悉的「更新」按钮。但即使厂商提供了新版本,在AppStore上还是会有延迟的,这时候要出动手动刷新大法。让这个小圈圈转完之后,你就能更新软件了。这波操作,当时发现的时候也是有点懵的,想不到iOS系统还得要这样才能更新软件。

  • 滚筒洗衣机排不出水该怎么处理?(可能是这些地方的问题)

    滚筒洗衣机排不出水该怎么处理排除排水管引起的排水故障后,若洗衣机依然出现不排水现象,则将洗衣机程序调整到单脱水,然后启动洗衣机,此时注意听排水电磁铁是否有“啪”的吸合声。接下来应该检查洗衣机排水阀是否堵塞,确定排水阀的拉簧是否脱落或是否锈蚀断裂,如果出现这些情况需清理及更换损坏的零件。如更换后仍不正常工作,则有可能因排水电磁铁烧损引起了程序控制器的故障,需检修程度控制器。

  • 香辣宫保虾(香辣宫保虾的做法)

    香辣宫保虾食材:花生米,葱白、干辣椒,青椒、姜,蒜,辣椒酱、花椒粉,白胡椒粉、盐、料酒、酱油、糖。草虾剪去虾须洗净,在虾背上横切一刀,加入盐、料酒和白胡椒粉拌匀,腌制15分钟。烧热锅内油,倒入基围虾炒至虾壳变红,立即盛入碟中。续添油烧热,用小火炒香干辣椒和辣椒酱,倒入葱白、姜片和蒜片炒至香味溢出,然后加入酱油,盐,倒入草虾,花生米炒匀,最后放入糖,淋上料酒,撒上花椒面即可上碟。

  • 用久负盛名造句 久负盛名的意思和造句

    出自《魏书·崔浩传》:“奚斤辨捷智谋,名闻遐迩。”

  • 春节唯美的祝福语(新年春节唯美祝福语)

    春节唯美的祝福语?春节唯美的祝福语花圆月圆人更圆,情圆事圆盼团圆。春节到,心欢畅,一年伊始人心旺。威风锣鼓喧天响,迎来春节笑声扬。春节,是一年的起点;快乐,是人生的重点;烦恼,永远降到冰点;时间,是情谊的钟点;祝福是短信的焦点。春节之际,送上我最真的祝福,老师春节快乐!驱散了过去的阴霾,迎来了新一片的阳光。春节来临,新年在即,祝福你:天赐平安!春节假期发誓愿,让你休息心开怀。