- 商汤提出cosFormer:在注意力中重新思考Softmax ⭐⭐
- Abstract: 商汤提出cosFormer:在注意力中重新思考Softmax
- Paper: COSFORMER : RETHINKING SOFTMAX IN ATTENTION
- Tips: COSFORMER 的关键思路在于将不可分解非线性 softmax 操作替换为具有可分解非线性重加权机制的线性操作。该模型适用于随机注意力和交叉注意力,并且输入序列长度具有线性时间和空间复杂度,从而在建模长程依赖中显示出强大的能力。
- 一张照片就能生成3D模型,GAN和自动编码器碰撞出奇迹,苏黎世联邦理工学院出品 ⭐⭐
- Abstract: 一张照片就能生成3D模型,GAN和自动编码器碰撞出奇迹,苏黎世联邦理工学院出品
- Paper: Pix2NeRF: Unsupervised Conditional π-GAN for Single Image to Neural Radiance Fields Translation
- Code: https://github.com/sxyu/pixel-nerf
- Tips: 首先,自动编码器可以通过无监督学习,来获取输入图像的隐藏特征,包括物体姿态和物体形状,并利用学习到的特征重建出原始的数据;然后,再利用GAN来通过姿态和形状数据,重构出与原来的物体形状不同的新视图。
- CVPR 2022 | 南开程明明团队和天大提出LD:目标检测的定位蒸馏 ⭐⭐
- Abstract: 南开程明明团队和天大提出LD:目标检测的定位蒸馏
- Paper: Localization Distillation for Dense Object Detection
- Code: https://github.com/HikariTJU/LD
- Tips: : 把用于分类head的KD(知识蒸馏),用于目标检测的定位head,即有了LD (Localization Distillation)。LD使得logit mimicking首次战胜了Feature imitation。分类知识与定位知识的蒸馏应分而治之、因地制宜。
- 新目标检测框架 | 基于改进的one-shot的目标检测 ⭐⭐
- Abstract: 基于改进的one-shot的目标检测OSCD
- Paper: OSCD: A one-shot conditional object detection framework
- Tips: 研究者就提出了将检测问题更好地命名为one-shot条件目标检测。并设计了一个基于可学习度量和two-stages检测模型的通用one-shot条件目标检测框架(OSCD)。
- CVPR 2022放榜!2067篇论文被接收,Masked Autoencoders 能否夺得最佳论文? ⭐⭐
- Abstract: Auto-Sklearn:CVPR 2022放榜!2067篇论文被接收,Masked Autoencoders 能否夺得最佳论文?
- Paper: Masked Autoencoders Are Scalable Vision Learners
- Tips: 这篇论文展示了一种被称为掩蔽自编码器(masked autoencoders,MAE)的新方法,可以用作计算机视觉的可扩展自监督学习器。MAE 基于两个核心理念:研究人员开发了一个非对称编码器 - 解码器架构,其中一个编码器只对可见的 patch 子集进行操作(没有掩蔽 token),另一个简单解码器可以从潜在表征和掩蔽 token 重建原始图像。
- 最新 955 不加班的公司名单(2022版) ⭐⭐
- Abstract: 最新 955 不加班的公司名单(2022版)
- Tips: 以下公司名单,基本不属于 996 的公司,相对接近 955/965 的水平,但是依旧要看部门和地区,不能保证完全准确性。