Skip to content

Latest commit

 

History

History
84 lines (52 loc) · 6.33 KB

0507.md

File metadata and controls

84 lines (52 loc) · 6.33 KB

公众号内容拓展学习笔记(2022.5.7)


📎 今日要点

  1. CVPR 2022|未标注视频也能训练目标检测?微软提出时空目标蒸馏框架STUD ⭐⭐
  1. 只需要十分之一数据,就能通关四大视觉任务,居然还开源了! ⭐⭐
    • Abstract: OpenGVLab开源超高性能预训练模型,节省90%数据量!分类、目标检测、语义分割、深度估计,四大任务一网打尽!
    • Paper: INTERN: A New Learning Paradigm Towards General Vision
    • Code: https://github.com/opengvlab
    • Tips: 上海人工智能实验室联合商汤科技、香港中文大学、上海交通大学发布通用视觉技术体系“书生”INTERN,一套持续学习框架,用于系统化解决当下人工智能视觉领域中存在的任务通用、场景泛化和数据效率等一系列瓶颈问题。
  1. EdgeFormer: 向视觉 Transformer 学习,构建一个比 MobileViT 更好更快的卷积网络 ⭐⭐
  1. LSTM在CV领域杀出一条血路!Sequencer:完美超越Swin与ConvNeXt等前沿算法 ⭐⭐
    • Abstract: Sequencer:完美超越Swin与ConvNeXt等前沿算法
    • Paper: Sequencer: Deep LSTM for Image Classification
    • Tips: 本文提出Sequencer,一个全新且具有竞争性的架构,可以替代ViT,为分类问题提供了一个全新的视角。作者还提出了一个二维的Sequencer模块,其中一个LSTM被分解成垂直和水平的LSTM,以提高性能。
  1. 视觉Transformer的复仇!Meta AI提出DeiT III:ViT训练的全新baseline ⭐⭐⭐⭐
    • Abstract: Meta AI提出DeiT III:ViT训练的全新baseline
    • Paper: DeiT III: Revenge of the ViT
    • Tips: 本文提出了训练视觉 Transformer(ViT)的三种数据增强方法:灰度、过度曝光、高斯模糊,以及一种简单的随机剪枝方法 (SRC)。实验结果表明,这些新方法在效果上大大优于 ViT 此前的全监督训练方法。
  1. 引入特征空间,显著降低计算量:双边局部注意力ViT性能媲美全局注意力 ⭐⭐
    • Abstract: 引入特征空间,显著降低计算量:双边局部注意力ViT性能媲美全局注意力
    • Paper: BOAT: Bilateral Local Attention Vision Transformer
    • Code: https://github.com/mahaoyuHKU/pytorch-boat
    • Tips: 作者提出了双边局部注意力 ViT (简称 BOAT),把特征空间局部注意力模块加入到现有的基于窗口的局部注意力视觉 Transformer 模型中,作为图像空间局部注意力的补充,大大提升了针对远距离特征依赖的建模能力,在几个基准数据集上的大量实验表明结合了特征空间局部注意力的模型明显优于现有的 ConvNet 和 ViT 模型。

📎 Others

  • 由于图片权限问题,GitHub是完整版,可以点点 star
  • 星标的数量是与个人相关程度,不代表文章内容的好坏
  • 关注我的个人网站
  • 关注我的CSDN博客
  • 关注我的哔哩哔哩
  • 关注我的公众号CV伴读社