原文摘要
LLM坑惨审稿人
进一步信息揣测
- 审稿人可能普遍依赖LLM辅助审稿:NeurIPS 2025审稿建议中残留的AI提示痕迹(如“Who's Adam”)暴露了审稿人可能直接复制LLM生成的文本而未仔细检查,暗示LLM已成为审稿流程中的“隐形工具”。
- 学术评审质量存在隐患:低级的AI错误(如混淆常识术语)被公开,反映部分审稿人可能缺乏领域深度知识,依赖LLM填补专业漏洞,导致评审可信度下降。
- 行业对AI审稿的默许态度:网友调侃“审稿人用LLM就偷着乐吧”暗示业内已默认LLM参与审稿是潜规则,甚至认为其能弥补审稿人自身知识不足的问题。
- 审稿效率与质量的矛盾:使用LLM可能提升审稿速度,但未公开的实践表明,审稿人可能因过度依赖AI而忽略细节审查,引发“批量低质评审”风险。
- 学术会议的漏洞管理:NeurIPS等顶级会议未明确禁止LLM辅助审稿,也未设置检测机制,暴露评审流程存在未被公开讨论的监管盲区。
- 作者与审稿人的信息不对称:投稿者可能不知晓自己的论文被AI间接评审,而审稿人私下使用LLM的行为未被透明化,形成灰色地带。