Skip to content

Latest commit

 

History

History
83 lines (51 loc) · 6.08 KB

0509.md

File metadata and controls

83 lines (51 loc) · 6.08 KB

公众号内容拓展学习笔记(2022.5.9)


📎 今日要点

  1. CVPR 2022 | 北大、腾讯提出文字logo生成模型,脑洞大开 ⭐⭐
  1. CVPR2022 Oral:GAN监督的密集视觉对齐,代码开源 ⭐⭐
    • Abstract: GAN监督的密集视觉对齐,代码开源
    • Paper: GAN-Supervised Dense Visual Alignment
    • Code: https://www.github.com/wpeebles/gangealing
    • Tips: 在该论文中作者提出了一种用于端到端联合学习的GAN生成数据的框架。受到经典方法的启发,论文中作者联合训练一个空间变换器,将随机样本从基于未对齐数据训练的GAN映射到共同的、联合学习的目标模式。

<video id="video" controls=""src="http://mpvideo.qpic.cn/0bc3iiaa4aaa4qao57dpnnrfaqwdbzbaadqa.f10003.mp4?dis_k=85b8fb229280fbf356d366dec7e53593&dis_t=1652058067&vid=wxv_2380802778538688513&format_id=10003&support_redirect=0&mmversion=false" preload="none">

  1. ACL'22 | 陈丹琦提出CoFi模型剪枝,加速10倍,精度几乎无损 ⭐⭐
    • Abstract: 陈丹琦提出CoFi模型剪枝,加速10倍,精度几乎无损
    • Paper: Structured Pruning Learns Compact and Accurate Models
    • Code: https://github.com/princeton-nlp/CoFiPruning
    • Tips: 作者提出的结构化剪枝方法 CoFi 在几乎没有太多精度损失的情况下,达到了 10 倍以上的加速比,同时,和常规的蒸馏做法相比,避免了因使用大量无标签数据预训练模型而带来的训练成本过高的问题,按作者的话来说,该方法可以是蒸馏的一个有效替代品。
  1. MAGIC: 一个即插即用、无需训练的图像-文本生成框架 ⭐⭐
    • Abstract: MAGIC: 一个即插即用、无需训练的图像-文本生成框架
    • Paper: LanguageModels Can See: Plugging Visual Controls in Text Generation
    • Code: https://github.com/yxuansu/MAGIC
    • Tips: 本文提出了一个全新的MAGIC框架。该框架可以使用图片模态的信息指导预训练语言模型完成一系列跨模态生成任务与其他方法不同的是,MAGIC框架无需多模态的训练数据,只需利用现成的语言模型和图文匹配模型就能够以zero-shot的方式高质量地完成多模态生成任务。
  1. 多模态理解与生成,西南交大&MSRA提出统一的"视频和语言预训练"模型:UniVL! ⭐⭐⭐⭐
  1. 小样本学习只是一场学术界自嗨吗? ⭐⭐
    • Abstract: 小样本学习只是一场学术界自嗨吗?
    • Tips: 这两年看见很多人,都在批评few-shot learning,觉得是学术界在自high,思考良久,感觉有必要给这个领域正个名~(注意,本文仅关注few-shot image classification)

📎 Others

  • 由于图片权限问题,GitHub是完整版,可以点点 star
  • 星标的数量是与个人相关程度,不代表文章内容的好坏
  • 关注我的个人网站
  • 关注我的CSDN博客
  • 关注我的哔哩哔哩
  • 关注我的公众号CV伴读社