请选择 进入手机版 | 继续访问电脑版

雅恒论坛

您可以使用eMule或eMule Mod(参见eMuleFans.com的Mod页emule-mods.de的Mod页)(Windows)、aMule(Win、Linux、Mac)等软件下载eD2k链接。可以参考这里的修复、关联eD2k协议链接方法
eMule收藏集(.emulecollection)文件是您选中的所有链接的列表文件。eMule可以直接下载它们。
按住SHIFT键选择可以选中多个选择框。
可用文件名和大小选择器来选择文件。
查看eD2k Link Selector php类主页可以下载此php类或联系作者。
查看eD2k Link Selector WordPress 插件主页可以下载WordPress插件。
文件名选择器帮您根据文件名称或后缀来选择文件。不分大小写。
符号使用:
和:空格( )、+
不包含:-
或:|
转义:一对英文引号("");
匹配开头:^
匹配结尾:$
例如:
选中所有名称中包含有“eMule”或“0.49c”字眼,但不包含有“exe”字眼的:emule|0.49c -exe
选中所有名称的开头是“eMule”,结尾是“0.49c”的:^emule 0.49c$
选中所有名称中带有“eMule 0.49c”的(必须是“eMule 0.49c”,中间没有别的字符,不能是“eMule fake 0.49c”),需要转义:"emule 0.49c"
大小选择器帮您根据文件大小选择文件。
查看: 329|回复: 0

10年首次登顶!CVPR 2023大奖揭晓:上海AI实验室/武大/商汤...

[复制链接]

41

主题

68

帖子

435

积分

管理员

Rank: 9Rank: 9Rank: 9

积分
435
发表于 2023-6-22 16:13:46 | 显示全部楼层 |阅读模式
CVPR开奖了!

作为AI领域最有学术影响力的顶级会议之一,国际计算机视觉与模式识别会议(CVPR)今年的颁奖依然是万众瞩目。

今年共有5篇论文获奖。2篇最佳论文,1篇最佳学生论文,另外最佳学生论文提名和最佳论文提名也各1篇。

其中,上海AI实验室、武汉大学、商汤联手提出的Planning-oriented Autonomous Driving(以路径规划为导向的自动驾驶)一举夺得CVPR 2023最佳论文头冠。
640.jpg

论文首次提出感知决策一体化的自动驾驶通用大模型「UniAD」,开创了以全局任务为目标的自动驾驶大模型架构先河,为自动驾驶技术与产业的发展提出了新的方向。

据悉,这也是近10年来计算机视觉三大顶级会议中(CVPR、ICCV、ECCV),第一篇以中国学术机构作为第一单位的最佳论文。

与此同时,来自西北工业大学的团队也摘取了CVPR 2023的最佳学生论文。

而去年由谷歌推出,并风靡AI圈的扩散模型Dreambooth,则获得了本届最佳学生论文提名。

最佳论文

CVPR 2023共计评选出2篇最佳论文。

第一篇最佳论文颁给上海AI实验室、武汉大学、商汤科技团队的Planning-oriented Autonomous Driving。

获奖理由:

该文章提出一个端到端的感知决策一体框架,融合了多任务联合学习的新范式,使得进行更有效的信息交换,协调感知预测决策,以进一步提升路径规划能力。

[color=rgba(0, 0, 0, 0.9)] 640 (6).png
[color=rgba(0, 0, 0, 0.9)]

这是CVPR历史上第一篇以自动驾驶为主题的最佳论文
[color=rgba(0, 0, 0, 0.9)]
[color=rgba(0, 0, 0, 0.9)] 640 (7).png
[color=rgba(0, 0, 0, 0.9)]
论文中,研究人员首次将感知、预测和规划等3大类主任务、6小类子任务(目标检测、目标跟踪、场景建图、轨迹预测、栅格预测和路径规划)整合到统一的基于Transformer的端到端网络框架下,实现了全栈关键任务驾驶通用模型。

在nuScenes真实场景数据集下,UniAD的所有任务均刷新SOTA,尤其是预测和规划效果远超之前的最佳方案。

其中,多目标跟踪准确率超越SOTA 20%,车道线预测准确率提升30%,预测运动位移和规划的误差则分别降低了38%和28%。

UniAD的价值就在于,能更好地协助进行行车规划,实现「多任务」和「高性能」,确保车辆行驶的可靠和安全。
640 (8).png

另一篇最佳论文颁给AI2的CV研究团队Prior的「Visual Programming: Compositional visual reasoning without training」。

获奖理由:

解决了自然语言教学中的组成视觉推理任务,为视觉推理和神经符号研究提供了新的方向。

[color=rgba(0, 0, 0, 0.9)] 640 (9).png
[color=rgba(0, 0, 0, 0.9)]
论文,研究人员中提出了VISPROG,一种根据自然语言指令解决复杂和组合视觉任务的方法。

只需要给出几个自然语言指令的示例和所需的高级程序,VISPROG使用GPT-3中的上下文学习为任何新指令生成一个程序,然后在输入图像上执行该程序以获得预测结果。

640 (10).png


VISPROG还将中间的输出总结为可解释的视觉原理。

研究人员在一些任务上演示了VISPROG,这些任务需要组成一组不同的模块,用于图像理解和操作、知识检索以及算术和逻辑运算。

[color=rgba(0, 0, 0, 0.9)] 640 (11).png
[color=rgba(0, 0, 0, 0.9)]
[color=rgba(0, 0, 0, 0.9)]
最佳学生论文

今年的「最佳学生论文」颁给了西北工业大学的「3D Registration with Maximal Cliques」。

获奖理由:

提出了一种解决点云配准基本问题的方法,该方法利用来自噪声点对应的兼容性图中的最大团约束。

[color=rgba(0, 0, 0, 0.9)] 640 (12).png
3D点云配准(3D point cloud registration)是计算机视觉领域的一个基本问题,目的是寻找最优的点云对齐姿态。

这篇论文提出了一种基于最大团(maximal clique,MAC)的3D配准方法。

[color=rgba(0, 0, 0, 0.9)] 640 (13).png
[color=rgba(0, 0, 0, 0.9)]
论文的核心思想就是放松先前的最大团约束,挖掘图中更多的局部共识信息,以准确地生成姿态假设:

1)构建相容图来呈现初始对应关系之间的亲和关系;
2)在图中搜索最大团,每个团代表一个一致性集合。然后执行节点引导的团选择,其中每个节点对应于具有最大图权重的最大团。
3)通过奇异值分解算法计算所选团的变换假设,并选择最佳假设进行配准。

[color=rgba(0, 0, 0, 0.9)] 640 (14).png
[color=rgba(0, 0, 0, 0.9)]
在U3M、3DMatch、3DLoMatch和KITTI数据集上进行的大量实验表明,MAC能够有效提高配准准确性,优于现有的各种主流方法,并且提升了深度学习方法的性能性能。

MAC与深度学习相结合,在3D Match/3DLoMatch上实现了95.7%/78.9%d SOTA配准召回率。

640 (15).png

最佳论文提名

「最佳论文提名」颁给来自谷歌和康奈尔大学的「DynIBaR: Neural Dynamic Image-Based Rendering」。

获奖理由:

对于具有复杂物体运动和不受控制的摄像机轨迹的长视频,在时空新颖视图合成方面向前迈出了重要一步。

640 (16).png

现场,只有2位获奖者上台领奖。引台下观众大笑的是,没到现场3位童鞋,他们便拉了一条横幅代替。
[color=rgba(0, 0, 0, 0.9)]
[color=rgba(0, 0, 0, 0.9)] 640 (17).png
[color=rgba(0, 0, 0, 0.9)]
以往,对于具有复杂物体运动和不受控制的摄像机轨迹的长视频,基于动态神经辐射场(即动态NeRF)的方法会产生模糊或不准确的渲染结果。

进而,限制了其在现实中的使用。

谷歌和康奈尔大学提出新的方法DynIBaR,通过采用基于volumetric的图像渲染框架,在场景运动感知的方式下,通过聚合附近视角的特征来合成新视角。

[color=rgba(0, 0, 0, 0.9)] 640 (18).png
[color=rgba(0, 0, 0, 0.9)]

该系统保留了之前方法的优点,能够模拟复杂场景和视角相关效果,同时能够从具有复杂场景动态和自由摄像机轨迹的长视频中合成逼真的新视角。

在动态场景数据集上,DynIBaR在比现有方法上取得了显著的改进。

最佳学生论文提名

今年的「最佳学生论文提名」颁给了谷歌和波士顿大学的Dreambooth。

获奖理由:

显示了如何在文本条件下的图像生成扩散模型进行微调,以在新的背景、视角和艺术风格下仅使用少数图像样本生成目标对象,具有令人印象深刻的生成能力。

640 (19).png
Dreambooth强大之处在于,只需要你上传3-5张指定的物体照片,再描述下想要生成的背景、动作或者表情,便能让指定物体「闪现」你想要的场景。

640 (20).png

具体来讲,该研究将给定主题的图像植入模型的输出域,以便可以使用唯一标识符对其进行合成。

为此,研究人员提出了一种用稀有token标识符表示给定主题的方法,并微调了一个预训练、基于扩散的T2I框架,该框架分两步运行:

从文本生成低分辨率图像,然后应用超分辨率(SR)扩散模型。

[color=rgba(0, 0, 0, 0.9)] 640 (21).png
[color=rgba(0, 0, 0, 0.9)]
[color=rgba(0, 0, 0, 0.9)]

虽然Dreambooth是在Imagen基础上做的调整,但这一全新方法也适用其他的扩散模型。

[color=rgba(0, 0, 0, 0.9)] 640 (22).png
[color=rgba(0, 0, 0, 0.9)]
Longuet-Higgins奖

Longuet-Higgins奖会颁发给经受了时间考验的一篇10年前的CVPR论文。
该奖以理论化学家和认知科学家H. Christopher Longuet-Higgins命名。

这届Longuet-Higgins奖颁发给了「Online Object Tracking: A Benchmark」。

640 (23).png
640 (24).png

青年研究员奖

青年研究员奖奖会颁发给在获得博士学位后7年内,对计算机视觉做出杰出研究贡献的一位或两位研究人员。

本届的青年研究员奖颁发给了Christoph Feichtenhofer和Judy Hoffman。

640 (25).png
640 (26).png

黄煦涛(Thomas S. Huang )纪念奖

[color=rgba(0, 0, 0, 0.9)]黄煦涛(Thomas S. Huang )纪念奖会颁发给在研究、教学领域被公认为楷模的研究者。

[color=rgba(0, 0, 0, 0.9)]最后的黄煦涛(Thomas S. Huang )纪念奖,颁给了Alyosha Efros。
[color=rgba(0, 0, 0, 0.9)]
640 (27).png

640 (28).png

谷歌90+论文霸榜,CVPR 2023接收率新高

2月份,CVPR 2023曾公布了放榜率。

640 (29).png
今年,CVPR论文接受和录用通通创下历史新高。

CVPR收到了创纪录的9155份论文(比CVPR2022增加了12%),并录用了2360篇论文,接收率为25.78%。

640 (1).jpg

另外,今年参会人数也创自疫情以来历史最高。大约8300多人参会,其中线下人数近7000。

640 (2).jpg

前段时间,CVPR曾公布12篇入围本届最佳论文候选名单(Award Candidate),包括谷歌、上海AI实验室、斯坦福大学、康奈尔大学等在内的世界顶尖企业及机构的研究。

最佳论文等奖项如何脱颖而出,大会介绍了其中的流程:

区域主席提名31篇最佳论文
高级区域主席选出12篇候选论文
程序主席组成委员会,并进行最终讨论

[ 640 (30).png

CVPR至尊地位,已经成为业界万众瞩目的一颗星。

根据Google Scholar,过去5年被引用最多的出版物中,CVPR位列第4。

640 (31).png

值得一提的是,今年谷歌在众多机构被接收的论文拔得头筹,大约有90篇论文。

就国内来看,中国机构获奖论文许久未见如此盛况。

在本届CVPR上,上海AI实验室以一篇最佳论文、一篇最佳论文候选、12篇入选「Highlight」名单的成绩,颇受瞩目。

另外,商汤、武汉大学、西北工业大学同样在本届CV顶会大放异彩。

CVPR 2050长什么样?

在获奖论文颁奖结束后,来自华盛顿大学的Yejin Choi教授畅想了一下,CVPR 2050可能是什么盛况?

(当然,前提是AGI还未实现,智械危机还未成真)

640 (32).png

在那时,或许CVPR 2050的颁奖大会是在元宇宙中举行的。

640 (33).png

又或者,我们那时已经成功移民火星,所以举办了第一届CVPR火星大会。

640 (34).png

那时,或许整个CVPR都会在AI的掌握之中,由ChatGPT写论文,ChatGPT审论文,最后再由ChatGPT rebuttal。

扩散模型会生成演讲幻灯片,NeRF来负责演讲,最后由ChatGPT完成总结。

640 (35).png


那时,最流行的学术话题还是few-shot prompting、指令微调、NeRF、Diffusion、Transformers吗?亦或是自动驾驶/清洁/通水管/带娃?

那时,大语言模型还会是时代的先锋吗?Scaling laws或许已经失效了。

而到2050年,我们很可能还没有实现LeCun所言的「狗级」人工智能,AGI依然远在5到10年之外,组合性原则依然未被解决。

640 (36).png

GPT 5/6/7或许已经达到了全知全能。

640 (37).png

AGI可能在没有具身的情况下实现吗?RLHF真的能让LLM和真实对齐吗?Transformers真的能掌握组合性原则吗?

640 (38).png

这些问题,都得留给未来解答了。

参考资料:https://twitter.com/CVPR/status/1671545306838626306
引用原文:https://mp.weixin.qq.com/s/tmXaOJOCHqS6FomhvFLIwg



您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

备案号:粤ICP备14013464号
快速回复 返回顶部 返回列表