CVPR 2023 接收结果出炉!再创历史新高!录用2360篇!(附10篇最新论文)

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【计算机视觉】微信技术交流群

2023 年 2 月 28 日凌晨,CVPR 2023 顶会论文接收结果出炉!这次没有先放出论文 ID List,而是直接 email 通知作者(朋友圈好友纷纷晒截图,报喜讯~你被刷屏了没?!)。

CVPR 2023 主委会官方发布这次论文接收数据:有效投稿 9155 篇(比 CVPR 2022 增加12%),收录 2360 篇(CVPR 2016 投稿才 2145 篇),接收率为 25.78 %

3bcc2c7da8478432cd64b1b02c1852de.png

CVPR 2023 会议将于 2023 年 6 月 18 日至 22 日在加拿大温哥华(Vancouver)举行。这次线下参加人数一定会比去年多很多,因为将会有一大波国内的学者线下参加学术交流(公费旅游bushi)。

dc0a5e2472bf4ab898d9696ed5d159b3.jpeg

Amusi 简单预测一下,CVPR 2023 收录的工作中 " 扩散模型、多模态、预训练、MAE " 相关工作的数量会显著增长。

本文快速整理了10篇 CVPR 2023 最新工作,内容如下所示。如果你想持续了解更多更新的CVPR 2023 论文和代码,大家可以关注CVPR2023-Papers-with-Code,在CVer公众号后台回复:CVPR2023,即可下载,链接如下:

https://github.com/amusi/CVPR2023-Papers-with-Code

这个项目是从2020年开始,累计提交了600+次!Star数已经破万+!覆盖CVPR 2020-2023的论文工作,很开心能帮助到一些同学。

dde3c8992923270627c519dac1879d8d.png

如果你的 CVPR 2023 论文接收了,欢迎提交issues~

Backbone

1. Integrally Pre-Trained Transformer Pyramid Networks

  • 单位:国科大, 华为, 鹏城实验室

  • Paper: https://arxiv.org/abs/2211.12735

  • Code: https://github.com/sunsmarterjie/iTPN

本文提出整体预训练的ViT金字塔网络(iTPN):通过整体预训练主干和金字塔网络缩小上游预训练和微调的gap,表现SOTA!性能优于CAE、ConvMAE等网络,代码已开源!

2f35bf4ebfd343189d5ff262a233fb47.png

2. Stitchable Neural Networks

  • 单位:蒙纳士大学ZIP Lab

  • Homepage: https://snnet.github.io/

  • Paper: https://arxiv.org/abs/2302.06586

  • Code: https://github.com/ziplab/SN-Net

Stitchable 神经网络(SN-Net):一种用于模型部署的新的可扩展和高效的框架,它可以快速地生成具有不同复杂性和性能权衡的大量网络,促进了现实世界应用的深度模型的大规模部署,代码即将开源!

62dee5b0f71d81dca7b3d173f3773640.png

MAE

3. Learning 3D Representations from 2D Pre-trained Models via Image-to-Point Masked Autoencoders

  • 单位:上海AI Lab, 港中大MMLab, 北大

  • Paper: https://arxiv.org/abs/2212.06785

  • Code: https://github.com/ZrrSkywalker/I2P-MAE

I2P-MAE:Image-to-Point掩码自编码器,一种从2D预训练模型中获得卓越的3D表示方法,在3D点云分类上表现SOTA(刷新ModelNet40和ScanObjectNN新记录)!性能优于P2P、PointNeXt等网络,代码即将开源!

be7374f1d33cbd0d5d0b220ce8f053bb.png

NeRF

4. NoPe-NeRF: Optimising Neural Radiance Field with No Pose Prior

  • 单位:牛津大学

  • Home: https://nope-nerf.active.vision/

  • Paper: https://arxiv.org/abs/2212.07388

  • Code: None

NoPe-NeRF:一个端到端可微模型,用于联合相机姿势估计和从图像序列中进行新颖的视图合成,在真实室内和室外场景上实验表明:此方法在新颖的视图渲染质量和姿态估计精度方面优于现有方法。

a873e2dd8e70ba21d580ecc5d85188cc.png

Diffusion Models(扩散模型)

5. Video Probabilistic Diffusion Models in Projected Latent Space

  • 单位:KAIST, 谷歌

  • Homepage: https://sihyun.me/PVDM/

  • Paper: https://arxiv.org/abs/2302.07685

  • Code: https://github.com/sihyun-yu/PVDM

据称PVDM:是第一个用于视频合成的latent扩散模型,它学习低维隐空间中的视频分布,可以在有限资源下使用高分辨率视频进行有效训练,以使用单个模型合成任意长度的视频,代码刚刚开源!单位:KAIST, 谷歌

4b953bda8741e343bb6827756445eb84.png

6. Solving 3D Inverse Problems using Pre-trained 2D Diffusion Models

  • 单位:KAIST, 洛斯阿拉莫斯国家实验室

  • Paper: https://arxiv.org/abs/2211.10655

  • Code: None

本文提出DiffusionMBIR:一种用于3D医学图像重建的扩散模型重建策略,实验证明:其能够实现稀疏视图CT、有限角度CT和压缩感知MRI的最先进重建。

a79d56bc4bc48b88287f041b714cb65e.png

视觉和语言(Vision-Language)

7. GIVL: Improving Geographical Inclusivity of Vision-Language Models with Pre-Training Methods

  • 单位:UCLA, 亚马逊Alexa AI

  • Paper: https://arxiv.org/abs/2301.01893

  • Code: None

本文提出GIVL:一种地理包容性视觉和语言预训练模型,在地理多样化的V&L任务上实现了最先进的和更均衡的性能。

757bef48051969f3ec21e809b9ff18e0.png

目标检测(Object Detection)

8. YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors

  • 单位:YOLOv4 原班人马

  • Paper: https://arxiv.org/abs/2207.02696

  • Code: https://github.com/WongKinYiu/yolov7

超越YOLOv5、YOLOX、PPYOLOE、YOLOR等目标检测网络!

ee62061de4ce6302de217aa0284f8132.png

9. DETRs with Hybrid Matching

  • 单位:北大, 中科大, 浙大, MSRA

  • Paper: https://arxiv.org/abs/2207.13080

  • Code: https://github.com/HDETR

本文提出一种非常简单且有效的混合匹配方案,以解决基于 DETR 的方法在多种视觉任务(2D/3D目标检测、姿态估计等)上的低训练效率,并提高准确性,如助力PETRv2、TransTrack和可变形DETR等网络性能提升,代码已开源!

680ea32179697fd155630120fc28c494.png

10. Enhanced Training of Query-Based Object Detection via Selective Query Recollection

  • 单位:CMU, Meta AI

  • Paper: https://arxiv.org/abs/2212.07593

  • Code: https://github.com/Fangyi-Chen/SQR

即插即用!本文提出选择性查询回忆(SQR):一种基于查询的目标检测器训练新策略,可以很容易地插入到各种DETR变体中,显著提高它们的性能,代码已开源!

8b0c9e25405f6be1897efb5f8fcc270a.png

点击进入—>【计算机视觉】微信技术交流群

最新CVPP 2023论文和代码下载

后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集

后台回复:Transformer综述,即可下载最新的3篇Transformer综述PDF

目标检测和Transformer交流群成立
扫描下方二维码,或者添加微信:CVer333,即可添加CVer小助手微信,便可申请加入CVer-目标检测或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer等。
一定要备注:研究方向+地点+学校/公司+昵称(如目标检测或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲扫码或加微信号: CVer333,进交流群
CVer学术交流群(知识星球)来了!想要了解最新最快最好的CV/DL/ML论文速递、优质开源项目、学习教程和实战训练等资料,欢迎扫描下方二维码,加入CVer学术交流群,已汇集数千人!

▲扫码进群
▲点击上方卡片,关注CVer公众号
整理不易,请点赞和在看

文章出处登录后可见!

已经登录?立即刷新

共计人评分,平均

到目前为止还没有投票!成为第一位评论此文章。

(0)
青葱年少的头像青葱年少普通用户
上一篇 2023年3月4日 上午8:27
下一篇 2023年3月4日

相关推荐