主题网站设计模板,西南城乡建设部网站首页,小米wifi设置网址入口网站,电子销售网站报表模块如何做一、说明 在计算机视觉时代#xff0c;卷积神经网络#xff08;CNN#xff09;几十年来一直是主导范式。直到 2021 年 Vision Transformers (ViTs) 出现#xff0c;这个领域才开始发生变化。现在#xff0c;是时候采用受 Transformer 架构启发的基于注意力的模型了#x… 一、说明 在计算机视觉时代卷积神经网络CNN几十年来一直是主导范式。直到 2021 年 Vision Transformers (ViTs) 出现这个领域才开始发生变化。现在是时候采用受 Transformer 架构启发的基于注意力的模型了使我们能够有效地适应各种数据集变化。 我们需要再次回顾CNN的历史就像我们回顾过去发生的事情一样不要重蹈覆辙也不要改进错误。为了进一步提高基于注意力的模型的性能学习 CNN 的历史并将其优势应用到这些模型中至关重要。让我们回顾一下 CNN 的影响力时间线从 LeCun 的 LeNet-1 到广泛使用的 EfficientNet。 今天我们探讨了七篇可参考/有意义的关键论文它们将过渡到基于注意力的模型[AlexNet、VGG、GoogLeNet、ResNet、DenseNet、SE-Net、EfficientNet]。我们开始吧
二、AlexNet计算机视觉开发的先驱 - 标题深度卷积神经网络的 ImageNet 分类 - 作者Alex Krizhevsky、Ilya Sutskever、Geoffrey E. Hinton - 出版多伦多大学2012 年 - [此处] 2012 年大型深度学习模型的特点是计算成本高。人们迫切需要具有成本效益且有效的模型。正是在这段时间多伦多的研究人员推出了名为 AlexNet 的突破性架构。 AlexNet 最关键的方面之一是其创新的训练环境它使用两个 3GB GPU。为了优化效率和效果对架构进行了划分。如上图所示特征向量在两个 GPU 之间分割连接位于同一层内。 AlexNet 还解决了臭名昭著的梯度消失问题即激活输出随着网络加深而减少。与之前通常依赖 Sigmoid 或 tanh 激活函数的模型不同AlexNet 引入了整流线性单元 (ReLU) 激活函数。AlexNet 引入了修正线性单元 (ReLU) 激活而不是常用的 Sigmoid 或 tanh。
这一战略选择使得 AlexNet 在大规模视觉识别挑战赛2012 年的 ILSVRCImageNet中取得了比第二名高出 16% 的准确率标志着深度学习方法论的重大飞跃。 AlexNet的发布标志着一个转折点推动了深度学习方法的快速发展。
三、VGG最大化堆叠 3x3 卷积层的卷积网络的效率。 - 标题用于大规模图像识别的非常深的卷积网络 - 作者Karen Simonyan、Andrew Zisserman- 出版牛津大学2014 年 - [此处] 继 2012 年 AlexNet 取得成功之后2014 年谷歌和牛津大学的研究人员推出了两个重要模型在计算机视觉社区引起了广泛讨论。虽然这些模型有一些相似之处但人们经常对它们进行比较以评估它们的优势。尽管许多人称赞GoogLeNet 的 1x1 卷积层效率但值得注意的是 VGG 提出了自己独特的挑战和优点。 为了说明这一点让我们考虑一下感受野——计算机视觉中的一个关键方面。左图展示了两个 3x3 卷积层右图展示了一个 5x5 卷积层。令人惊讶的是两种设置都提供相同的感受野这意味着它们可以有效地捕获整个图像的信息。然而需要注意的是5x5 卷积层需要 25 倍的计算量而两个 3x3 层的组合只需要 18 倍的计算量即可产生输出或特征向量。 VGG 通过用多个 3x3 卷积层在某些情况下甚至是三层替换较大的卷积层例如 5x5 或 7x7在其架构中利用了这种效率。这不仅降低了计算复杂性而且还为网络增加了非线性使其能够进行更深入的研究尽管它依赖于 3x3 卷积层。 在 ILSVRC 挑战中VGG 获得第二名落后于 GoogLeNet。然而更仔细的检查表明在两种架构之间的直接比较中VGG 始终优于 GoogLeNet尽管采用了看似更简单的方法。
四、GoogLeNet通过不同的卷积实现深度 - 标题深入了解卷积 - 作者Christian Szegedy 等人。 - 发布2014 年 Google Inc - [此处] 如果说 VGG 体现了简单性和高性能那么 GoogLeNet 则展示了卓越的优化过程旨在利用各种大小的卷积层创建各种模型。尽管如此VGG 显示当使用大于 3x3 的卷积层时计算量会增加相反GoogLeNet 引入了一种涉及 1x1 卷积的经济有效的策略可实现前所未有的模型深度。这使得 GoogLeNet 在保持效率的同时具有令人印象深刻的非线性和强大的性能。 与VGG相比GoogLeNet还强调了神经网络中非线性的重要性。Google 的方法从 2013 年一篇论文中提出的网络中网络 (NIN) 概念中汲取了灵感。这种创新架构通过采用 1x1 卷积来减少滤波器数量。纵观整个 NIN 结构网络似乎是嵌套在网络中的。 作者承认更大的模型可以提供更多样化的表达但它们也带来了挑战特别是过度拟合和难以优化的风险。为了解决这个问题他们在网络中引入了稀疏连接——1x1 conv可以实现稀疏连接旨在在多样性和过度拟合之间取得平衡。然而值得注意的是稀疏连接是以计算资源为代价的。 Inception 模块虽然功能强大但最初面临与成本相关的挑战。为了增强非线性并减轻成本问题采用 Network in Network 的 1x1 卷积作为战略选择。图b
五、ResNet残差学习重新定义深度学习 - 标题图像识别的深度残差学习 - 作者Kamming He 等人。 - 发布2014 年微软研究团队 - [此处] ResNet 已成为该领域最有影响力的论文之一截至 2023 年 10 月引用次数超过 180,000 次。它的影响不仅延伸到计算机视觉任务还延伸到全球范围内的研究挑战。 ResNet 引入了一个简单但革命性的概念称为“残差学习”它在深度学习领域留下了不可磨灭的印记。该方法的核心是将输入向量添加到网络块的输出。问题出现了为什么残差学习会产生如此令人印象深刻的结果 答案就在于这个简单过程的优雅。想象一个场景我们的模型呈现出狗的图像其目标是重现相同的狗图像。当这一层被添加到网络中时它的主要目的是保持输入图像的准确性。因此模型要么保留输入图像要么进行最小的更改。这种方法与 VGG 等传统模型明显不同后者会尝试重建输入图像从而可能导致结果模糊或扭曲。 这就是为什么 ResNet 的残差学习仍然是一个强大的概念。它允许信息在深层中更无缝地流动最终有助于其成功。 该残差块最多可以跨越 100 层。这个深度残差块可以成为 2015 年 ILSVRC 挑战赛的获胜者。到目前为止我们可以看到 ResNet 的许多变体如 SE-ResNet、ResNext、RegNetY 等。因为它简单且有用。稍后我们将讨论 SE-Net挤压和激励网络。在此之前我们先谈谈 2016 年推出的另一个网络。
六、DenseNet密集连接层以实现特征多样性 - 标题密集连接的卷积网络 - 作者Gao Huang等人 - 发布Facebook AI 研究团队和康奈尔大学2017 年 - [此处] DenseNet 的架构增强不仅仅考虑输入向量它确保每个块内的所有层都是互连的。这会提高效率和能力吗让我们来探索一下。 在传统的 CNN 架构中例如普通 VGG 网络创建像h_i这样的特征向量然后传递到后续层使前一层的动作永久化。同时ResNet 引入了一项变化允许层通过将一个密集块的输入添加到另一个密集块的输出来进行连接形成一种“快捷”连接。现在仔细观察密集连接的块我们发现 DenseNet 更进一步。与它的前身不同DenseNet 确保其块内的所有层都是互连的形成密集的连接网络。 更准确地说每一层的输出都提供给其后续层。然后后续层将其自己的输出和从前一层接收到的输出进行集成。 密集互连的层具有三个明显的优势
1. 计算效率
与 ResNet 的连接相比DenseNet 的效率更高。ResNet 需要 O(C×C) 的计算成本而 DenseNet 的运行成本为 O(ℓ××)其中 和 ℓ 都明显小于 C。
2. 功能多样化
DenseNet 可以产生比 ResNet 更丰富的特征集。这是因为 DenseNet 层堆叠了前面各层的特征图比 ResNet 中的相关特征封装了更全面的信息。
3. 多种功能的整合
考虑识别人脸的任务。初始层检测眼睛、耳朵和鼻子等基本特征。然而更深层次感知更广泛的模式例如区分男性和女性面孔或识别个人身份。包括 ResNet 在内的传统深度学习模型需要有效压缩输入图像以传递相关信息。然而由于其密集连接的架构DenseNet 可以利用大量的特征图使其异常熟练。
七、SENet引导注意力以增强学习 - 标题挤压和激励网络 - 作者Jie Hu 等人。 - 发布2017 年中国科学院 - [此处] 如果我必须选择一种模型架构来促进模型架构我会选择基于 SE 块的 ResNet。这种方法的美妙之处在于它的简单性和效力。只需添加两个 MLP 层并利用平均池化即可有效提高性能。但更重要的是其基本思想侧重于区分重要信息和不太重要的渠道。 挤压和激励 (SE) 块的工作原理有两个主要步骤
Squeeze它使用平均池机制将输入向量压缩到维度 [1×1×C]。激励这个压缩的 [1×1×C] 向量然后通过两个 MLP 层进行处理引入非线性。 如图所示两个 MLP 层引入了非线性并随后应用 sigmoid 函数 — 确保总和等于 1。这种机制强调了各个特征的重要性。 有趣的是作者预计 SE 块与 Inception 模块配对将产生显着的改进这主要是由于能够突出不同的特征。然而实证结果表明将其与基于 ResNet 的模型集成比 Inception 模块更有益。 SE 块更具吸引力的是其最小的计算开销。此外SE 模块复杂地评估渠道间关系为其赢得了“渠道关注”方法的绰号。
八、EfficientNet优化模型缩放 - 标题重新思考卷积神经网络的模型扩展 - 作者Mingxing Tan 和 Quoc V. Le - 发布Google ResearchBrain Team 2018 年 - [此处] EfficientNet 代表了一种寻求开发紧凑且高性能模型的新颖方法。有效地设计此类架构可能非常具有挑战性。通过一系列实验EfficientNet 的创建者努力寻找神经网络的最佳平衡点。 EfficientNet 背后的研究人员研究了各种参数模型的宽度、深度和分辨率。随后他们制作了一系列模型从最紧凑的版本到更大的版本。 他们的实验证明分辨率缩放比深度缩放具有更显着的效果其中“d”表示深度“r”表示分辨率 为了扩展模型EfficientNet 使用phi值。EfficientNet 版本的范围各有不同的 phi 值在各种模型大小上始终优于竞争对手。此外与具有相似性能的模型相比EfficientNet 总是因效率更高而脱颖而出。
九、下一步是什么 当我们回顾计算机视觉模型的历程时卷积神经网络 (CNN) 的作用怎么强调都不为过。它们的卷积层和池化机制彻底改变了我们处理视觉数据的方式推动了图像识别、检测等方面的众多进步。然而与所有模型一样CNN 也有其局限性例如局部感受野以及处理远程依赖性的困难。 输入注意力机制这是一个新事物为我们如何建模数据中的依赖关系提供了全新的视角。通过允许模型有选择地处理输入的不同部分我们打破了固定计算路径的链条使模型更加灵活和上下文感知。 基于注意力的模型的未来前景广阔。我们或许可以预见
可扩展性由于注意力机制提供了并行计算的潜力因此它们非常适合有效处理更大的数据集。回顾 CNN 的演变很明显后续算法往往变得更加简化和可扩展。可解释性通过注意力权重的可视化我们不仅可以深入了解模型认为输入的哪些部分是重要的而且还可以增强我们对其决策的信任。这与可解释人工智能的更广泛目标相一致有助于使模型推理更加透明和易于理解。适应性注意力机制可以与其他架构集成为利用 CNN 和注意力优势的混合模型铺平道路。 随着研究人员和从业者不断创新计算机视觉的前景必将不断发展。虽然 CNN 奠定了基础但基于注意力的模型正在其基础上构建为我们的探索迈出新的篇章让我们的模型能够看到和理解。加入这个不断变化的领域是一个激动人心的时刻我们热切期待未来的奇迹10-25-2