Skip to content

Latest commit

 

History

History
75 lines (49 loc) · 5.58 KB

0303.md

File metadata and controls

75 lines (49 loc) · 5.58 KB

公众号内容拓展学习笔记(2022.3.3)


📎 今日要点

  1. 商汤提出cosFormer:在注意力中重新思考Softmax ⭐⭐
    • Abstract: 商汤提出cosFormer:在注意力中重新思考Softmax
    • Paper: COSFORMER : RETHINKING SOFTMAX IN ATTENTION
    • Tips: COSFORMER 的关键思路在于将不可分解非线性 softmax 操作替换为具有可分解非线性重加权机制的线性操作。该模型适用于随机注意力和交叉注意力,并且输入序列长度具有线性时间和空间复杂度,从而在建模长程依赖中显示出强大的能力。
  1. 一张照片就能生成3D模型,GAN和自动编码器碰撞出奇迹,苏黎世联邦理工学院出品 ⭐⭐
  1. CVPR 2022 | 南开程明明团队和天大提出LD:目标检测的定位蒸馏 ⭐⭐
    • Abstract: 南开程明明团队和天大提出LD:目标检测的定位蒸馏
    • Paper: Localization Distillation for Dense Object Detection
    • Code: https://github.com/HikariTJU/LD
    • Tips: : 把用于分类head的KD(知识蒸馏),用于目标检测的定位head,即有了LD (Localization Distillation)。LD使得logit mimicking首次战胜了Feature imitation。分类知识与定位知识的蒸馏应分而治之、因地制宜。
  1. 新目标检测框架 | 基于改进的one-shot的目标检测 ⭐⭐
    • Abstract: 基于改进的one-shot的目标检测OSCD
    • Paper: OSCD: A one-shot conditional object detection framework
    • Tips: 研究者就提出了将检测问题更好地命名为one-shot条件目标检测。并设计了一个基于可学习度量和two-stages检测模型的通用one-shot条件目标检测框架(OSCD)。
  1. CVPR 2022放榜!2067篇论文被接收,Masked Autoencoders 能否夺得最佳论文? ⭐⭐
    • Abstract: Auto-Sklearn:CVPR 2022放榜!2067篇论文被接收,Masked Autoencoders 能否夺得最佳论文?
    • Paper: Masked Autoencoders Are Scalable Vision Learners
    • Tips: 这篇论文展示了一种被称为掩蔽自编码器(masked autoencoders,MAE)的新方法,可以用作计算机视觉的可扩展自监督学习器。MAE 基于两个核心理念:研究人员开发了一个非对称编码器 - 解码器架构,其中一个编码器只对可见的 patch 子集进行操作(没有掩蔽 token),另一个简单解码器可以从潜在表征和掩蔽 token 重建原始图像。
  1. 最新 955 不加班的公司名单(2022版) ⭐⭐
    • Abstract: 最新 955 不加班的公司名单(2022版)
    • Tips: 以下公司名单,基本不属于 996 的公司,相对接近 955/965 的水平,但是依旧要看部门和地区,不能保证完全准确性。

📎 Others

  • 由于图片权限问题,GitHub是完整版,可以点点 star
  • 星标的数量是与个人相关程度,不代表文章内容的好坏
  • 关注我的个人网站
  • 关注我的CSDN博客
  • 关注我的哔哩哔哩
  • 关注我的公众号CV伴读社