新智元报道

编辑:编辑部 YHs

【新智元导读】这一届的ICCV 2025,论文投稿量达到惊人的11,152篇,刷新历史纪录。评审结果公布后,有人晒出高分成绩单,也有人对评审意见表示沮丧。面对如此庞大的投稿规模,大会如何确保评审质量?

ICCV 2025评审结果公布了!

这届ICCV论文投稿数量创历史新高。据大会官方公布,今年共收到11152份有效投稿,远超往届规模。



ICCV 2023顶会共收到了8088篇投稿

截至评审截止日期,11152篇有效投稿论文均已获得至少3份评审意见。

作者可以在5月16日晚上11:59(夏威夷时间)前提交rebuttal,ICCV 2025将于6月25日公布最终录用决定。

根据Paper Copilot发布的统计数据,论文评分曲线现已公开。


评分含义如下:

1:拒绝

2:弱拒绝

3:边缘拒绝

4:边缘接受

5:弱接受

6:接受

到目前为止,大约36%的人得分在3.67以上,只有4%的得分高于4.0。得分在3.67到4.0之间,大约有50%-70%的录用机会。

作为计算机视觉三大顶会之一,ICCV每两年举办一次,今年将于10月19日至23日,在夏威夷檀香山举办。


目前,已有许多童鞋晒出自己的评审结果了。

评审结果,遭全网吐槽

由于评审意见的公开时间多少有些「奇葩」,目前的讨论还没有很多。


网友表示,看到的大多是负面评论、攻击和批评。


网友吐槽:这是人能写出来的review吗?

「我都不会说是GPT写的,因为GPT比这个人有脑子多了,这个只能称为类人。」

大意如下:

该论文提出了一种通过视觉-语言模型结合推理阶段搜索来提高模型「理解力」的方法,该方法本质上是一种检索增强生成 (RAG) 方法。该方法包括预测生成内容之前的「后续内容的值」,并声称能够减少模型幻觉现象。我试图在论文中找到这些被引用的术语的定义。如果论文旨在提高模型的「理解力」,那么理应存在一个精确且客观的衡量标准,对于「幻觉」现象也应如此。然而,我并没有找到这些术语的明确定义,这导致「提高理解力」这一目标的定义实际上取决于用于衡量它的方法,即第4.2节中使用的基准测试。因此,我只能认为该论文在特定的一组基准测试所定义的任务上表现良好,而这种良好表现也是通过同样的基准测试来衡量的。在有限的评审时间内,我无法确定该方法在概念上是否可靠。我希望看到这些术语的明确定义、用于衡量它们的指标,以及优化这些指标的原理,特别是该论文提出的方法是如何实现这些优化的。考虑到影响该领域实证性能的诸多因素,我很难仅凭实验结果来判断其学术价值。


Pinar表示,「真诚感谢「辛勤」工作的ICCV审稿人,你们怕不是直接把ChatGPT的结果复制粘贴上来了!这行云流水般的胡言乱语,配上量子级的模棱两可,同时接受和拒绝,简直是薛定谔的审稿意见。」


Akshit认为,「所谓的领域专家显然误解了概念,这让我感到滑稽。我被要求阐释一些要么不存在,要么补充材料中已有的内容。」


还有网友表示沮丧,没有一个审稿人阅读补充材料。


还有人吐槽,比CVPR有更多不称职的评审。



不过,也有网友的积极评价——对ICCV评审质量提升感到惊讶,新政策确实发挥作用了。


还有一些网友晒出凡尔赛成绩单。


ICCV投稿量从2019年约4300篇逐步增长,到2021年突破6000篇,2023年更跃升至8000+篇。

论文录用率则在25%-26%区间波动,极少数论文被选为大会报告,大多数以Poster形式交流成果。

ICCV对审稿人的要求

ICCV通常会邀请近年在顶级会议(CVPR/ICCV/ECCV)或相关期刊上有发表成果的学者作为审稿人。

大会共邀请了6位大会主席 (PC)、500位领域主席 (AC),以及约8000名审稿人参与评审。

全员参与审稿,离大谱?

每位投稿论文的作者都被要求担任审稿人。

前段时间,谷歌DeepMind研究员刘若茜吐槽了ICCV 2025全员参与审稿的制度。

她表示,我理解审稿人紧缺的现状,但强制规定「作者必须参与审稿」,且任何一人超期未完成,就会导致其所有论文被直接拒稿,这种规定实在荒谬了。

「完全不考虑作者也是人,谁还没个急事难处」?



马克斯·普朗克研究所主任Michael Black非常认同,他表示会修改要求,让任何在CVPR/ICCV/ECCV发表过3篇以上论文作者必须参与评审。


这不有作者因为错过了评审截止日期,为自己论文被拒担惊受怕。


ICCV官方公布了最终结果,97.18%评审按时提交,只有95名审稿人错过了截止日期。


禁用LLM评审

此外,ICCV 2025明确禁止在评审过程中使用大模型(如ChatGPT),以确保评审意见的原创性和真实性。


审稿人必须提供真实评论,一方面对论文作者负责,另外在线聊天机器人会收集对话历史记录,以改进其模型。

因此,在评审过程中使用它们将违反ICCV保密政策。

加州大学圣地亚哥分校的Alex表示,完成今年的ICCV审稿后,整个人都不好了。


评论区表示同样感觉很糟糕,整体论文质量在下滑。

评审规则延续了以往的高标准,严格执行评审截止日期,确保每篇论文至少获得三份评审意见。

任何未能在截止日期前提交评审的审稿人,其作为作者的论文也将被直接拒稿。

根据官方统计,97.18%的评审意见均按时提交,仅有95位审稿人错过截止时间,导致112篇论文可能受影响。


ICCV建议审稿人发掘论文中的闪光点,鼓励具有创新性或大胆假设的工作。

如果一篇论文提出了新的思想,即使在某标准数据集上未超过SOTA性能,也不应仅因为这一点而被拒稿。

来自约克大学CS助理教授Kosta Derpanis转发一位网友的建议,勉励所有拿到不如意结果的研究者们:

对某些人来说,ICCV的评审结果并非如你所愿。 这就是学术发表的常态——既要享受偶尔的成功喜悦,也要应对常见的失意挫折。这就是游戏的规则。

不妨趁此机会重新调整,仔细审视评审意见中的有效反馈,有价值的建议往往就藏在其中。有时你需要更深入地挖掘,但这些意见确实能帮助提升你的研究成果乃至整体研究思路。

对于那些还有机会的同行,祝你们好运!我见过太多在rebuttal阶段实现翻盘的论文。


同行评审:荣耀与荒诞

针对ICCV评审结果,来自Pattern Recognition Lab的科学家Andreas Maier发表了一篇长文,阐述了当前同行评审的现状。


评审:简洁批判,但过于简短

一位审稿人收到的论文,主题是降低医学图像生成计算复杂性的技术——将高维卷积分解为低维操作。

这是个有趣的点子,虽然不算全新,但在技术上似乎有潜力。

审稿人仔细研读后,将目光锁定在论文的评估部分,给出评价:

论文仅在一个鲜为人知的单一模态上测试,缺乏对公共数据集的验证(审稿人贴心地列出了可用的数据集建议);性能提升的报告缺乏鲁棒性检查;更别提视觉比较的呈现混乱,连CT成像的标准Hounsfield单位都没用上。

简而言之:好想法,烂评估。于是,审稿人给出了一个「边缘拒绝」(Borderline Reject)的评价。

他的评审简洁但精准:总结了核心理念,肯定了优点,指出了数据集选择、泛化不足和图像呈现的具体问题。

这样的评审,专业、中肯、切中要害。

然而,他万万没想到,这份简洁的评审竟成了后续「剧情」的导火索。

领域主席「模板攻击」

几周后,审稿人收到了AC的反馈。

原本期待的是技术性的讨论,然而,现实却像一部黑色喜剧:

AC指责审稿人的评论「缺乏足够细节」,甚至引用了评审中根本不存在的语句!

这份反馈,更像是从《ICCV被动攻击反馈模板手册™》中直接复制粘贴,机械得让人怀疑AC是否真的读过评审。


审稿人震惊之余,礼貌但犀利地回复:指出自己的评论基于领域标准,而引用的「原文」子虚乌有,并反问道AC能否具体说明问题出在哪里。

这一幕,堪称学术界「皇帝的新衣」——模板化的反馈不仅无助于改进,反而暴露了评审流程中的官僚病。

程序主席快速反应

审稿人没有让这场闹剧无休止地发酵,他将问题升级到程序主席,简明扼要地陈述了事实。

好在,程序主席的反应堪称神速。

不到两小时,线下讨论展开;当晚,AC亲自回复审稿人,问题迅速化解。

一场可能拖延数周的学术纷争,在一天内画上句号。

同行评审的「抓马」

这场风波虽小,却折射出大规模同行评审的深层问题。

在ICCV这样的顶会上,审稿人,尤其是资深学者,常常需要同时处理数十篇论文,时间捉襟见肘。

AC则要协调数百篇论文、评审和rebuttal,堪称「学术项目经理」。


在这种高压环境下,人与人之间的对话,逐渐被模板、复选框、自动回复所取代。

结果呢?

评审的质量标准开始滑向「容易量化」的指标:字数、格式、是否填满表格。

一份两页的泛泛之谈,可能顺利过关,而一份紧凑、切中要害的论文,却被打上「细节不足」的标签。

AC忙碌到,只能复制粘贴反馈,甚至懒得读评审原文。这种官僚式回复,让同行评审失去了它应有的灵魂。

ICCV 2025的这场风波提醒我们:

评审的质量不在于篇幅,而在于洞察;评审的意义不在于形式,而在于对话。

参考资料:

https://x.com/papercopilot/status/1920964042123858217

https://iccv.thecvf.com/Conferences/2025/ReviewerGuidelines

https://www.reddit.com/r/MachineLearning/comments/1kgemvp/d_iccv_2025_review_and_score_discussion_thread/

https://papercopilot.com/statistics/iccv-statistics/

https://akmaier.substack.com/p/iccv-reviews-2025-where-scripts-dont?r=56pbmv&utm_campaign=post&utm_medium=web&triedRedirect=true

ad1 webp
ad2 webp
ad1 webp
ad2 webp