AI绘画

绘制江湖儿女,绘制世间万物

霸榜多个CV任意,开源仅两天,微软分层ViT模型收获近2k star

屠榜各大 CV 任意的微软 Swin Transformer,近日开源了代码和预训练模型。自 2017 年 6 月谷歌提出 Transformer 以来,它便逐渐成为了自然语言处理领域的主流模型。最近

屠榜各大 CV 任意的微软 Swin Transformer,近日开源了代码和预训练模型。自 2017 年 6 月谷歌提出 Transformer 以来,它便逐渐成为了自然语言处理领域的主流模型。最近一段时间,Transformer 更是开启了自己的跨界之旅,开始在估计机视觉领域大展身手,涌现出了多个基于 Transformer 的新模型,如谷歌用于图象分类的 ViT 以及复旦、牛津、腾讯等机构的 SETR 等。由此,「Transformer 是万能的吗?」也一度成为机器学习社区的热门话题。不久前,微软亚研的研究者提出了一种通过移动窗口(shifted windows)估计的分层视觉 Transformer,他们称之为 Swin Transformer。相比之前的 ViT 模型,Swin Transformer 做出了以下两点改进:其一,引入 CNN 中常用的层次化构建方式构建分层 Transformer;其二,引入局部性(locality)思想,对无重合的窗口区域内进行自注意力估计。

论文链接:https://arxiv.org/pdf/2103.14030.pdf首先来看 Swin Transformer 的整体工作流,下图 3a 为 Swin Transformer 的整体架构,图 3b 为两个连续的 Swin Transformer 块。

该研究的亮点在于利用移动窗口对分层 Transformer 的表征进行估计。通过将自注意力估计限制在不重叠的局部串口,同时允许跨窗口连接。这种分层结构可以灵活地在不同尺度上建模,并具有图象大小的线性估计复杂度。下图 2 为在 Swin Transformer 架构中利用移动窗口估计自注意力的工作流:

模型本身具有的特性使其在一系列视觉任意上都完成了颇具竞争力的性能表现。其中,在 ImageNet-1K 数据集上完成了 86.4% 的图象分类准确率、在 COCO test-dev 数据集上完成了 58.7% 的方向检测 box AP 和 51.1% 的 mask AP。目前,在 COCO minival 和 COCO test-dev 两个数据集上,Swin-L(Swin Transformer 的变体)在方向检测和实例分隔任意中均完成了 SOTA。

此外,在 ADE20K val 和 ADE20K 数据集上,Swin-L 也在语义分隔任意中完成了 SOTA。开源代码和预训练模型Swin Transformer 论文公开没多久之后,微软官方于近日在 GitHub 上开源了代码和预训练模型,涵盖图象分类、方向检测以及语义分隔任意。上线仅仅两天,该项目已收获 1900 星。

项目地址:https://github.com/microsoft/Swin-Transformer首先图象分类任意,Swin-T、Swin-S、Swin-B 和 Swin-L 变体模型在 ImageNet-1K 和 ImageNet-22K 数据集上的准确率结果以下:

其次方向检测任意:Swin-T、Swin-S、Swin-B 和 Swin-L 变体模型在 COCO 方向检测(2017 val)数据集上的结果以下:

最后语义分隔任意:Swin-T、Swin-S、Swin-B 和 Swin-L 变体模型在 ADE20K 语义分隔(val)数据集上的结果以下。目前,Swin-L 取得了 53.50% 的 SOTA 验证 mIoU 分数。

留下评论

您的电子邮箱地址不会被公开。 必填项已用*标注