AI 论文日报(2026-05-01)

Published:

English version: /paper-news/2026-05-01/

运行统计

  • 候选论文: 179
  • 入选论文: 30
  • 已精读完成: 30
  • 时间窗口 (UTC): 2026-04-29T00:00:00Z → 2026-04-30T00:00:00Z (arxiv_announce, expanded=0)
展开查看用于总结的论文列表
arXiv ID标题 / 链接分类评分入选理由标签
2604.26511Tatemae: Detecting Alignment Faking via Tool Selection in LLMs
PDF
cs.CR, cs.AI95Directly targets alignment faking via observable tool-use behavior; strong safety relevance.alignment, agents, tool-use, deception-detection, evaluation
2604.26505Quantamination: Dynamic Quantization Leaks Your Data Across the Batch
PDF
cs.CR, cs.LG95Reveals serving-time data leakage from dynamic quantization; strong ML security relevance.security, privacy, inference, quantization, data-leakage
2604.26274Enforcing Benign Trajectories: A Behavioral Firewall for Structured-Workflow AI Agents
PDF
cs.CR, cs.AI93Behavioral firewall for workflow agents with low ASR on agent attacks; practical agent security.agent-safety, security, tool-use, guardrails, runtime-monitoring
2604.26506SafeReview: Defending LLM-based Review Systems Against Adversarial Hidden Prompts
PDF
cs.CL, cs.CR92Targets hidden-prompt attacks on LLM review systems with adversarially trained defense.llm-security, prompt-injection, adversarial-defense, evaluation, peer-review
2604.26256DORA: A Scalable Asynchronous Reinforcement Learning System for Language Model Training
PDF
cs.LG, cs.DC92Scalable async RL for LLM post-training; tackles rollout bottlenecks with convergence-aware design.llm-training, reinforcement-learning, post-training, systems, scaling
2604.26577Benchmarking the Safety of Large Language Models for Robotic Health Attendant Control
PDF
cs.AI, cs.CY, cs.RO91Benchmarks LLM safety for robotic health attendants with concrete violation rates across 72 models.safety-benchmark, robotics, llm-evaluation, harmful-instructions, deployment
2604.26866MoRFI: Monotonic Sparse Autoencoder Feature Identification
PDF
cs.CL, cs.LG90Finds causal latent directions for hallucinations after fine-tuning; useful for reliability.hallucination, interpretability, fine-tuning, llm-reliability, sae
2604.26837Unifying Sparse Attention with Hierarchical Memory for Scalable Long-Context LLM Serving
PDF
cs.LG90Long-context LLM serving framework with sparse attention + hierarchical memory; strong systems impact.llm-systems, long-context, sparse-attention, kv-cache, inference
2604.26206Option-Order Randomisation Reveals a Distributional Position Attractor in Prompted Sandbagging
PDF
cs.CL, cs.AI89Directly probes sandbagging behavior in LLMs with preregistered randomized evaluation.llm-safety, evaluation, sandbagging, robustness, behavior
2604.26904ClawGym: A Scalable Framework for Building Effective Claw Agents
PDF
cs.CL, cs.AI, cs.LG88Scalable framework, dataset, training, and diagnostics for Claw-style agents; high reuse potential.agents, benchmark, dataset, training-framework, tool-use
2604.26622OCR-Memory: Optical Context Retrieval for Long-Horizon Agent Memory
PDF
cs.CL88Novel long-horizon agent memory via visual compression of trajectories; high agent relevance.agents, memory, long-context, multimodal, retrieval
2604.26836Uncertainty-Aware Predictive Safety Filters for Probabilistic Neural Network Dynamics
PDF
cs.LG, eess.SY88Rigorous uncertainty-aware safety filter for neural dynamics in RL; strong safety relevance.safety, reinforcement-learning, control, uncertainty, safe-exploration
2604.26779Accelerating RL Post-Training Rollouts via System-Integrated Speculative Decoding
PDF
cs.LG, cs.CL88Speeds RL post-training rollouts losslessly via speculative decoding; highly relevant to frontier training.rl-post-training, speculative-decoding, llm-training, systems, efficiency
2604.26649When to Retrieve During Reasoning: Adaptive Retrieval for Large Reasoning Models
PDF
cs.IR, cs.AI, cs.CL87Adaptive retrieval during reasoning addresses a key gap for long-CoT reasoning models and RAG.RAG, reasoning, retrieval, long-context, efficiency
2604.26733FutureWorld: A Live Environment for Training Predictive Agents with Real-World Outcome Rewards
PDF
cs.AI, cs.LG87Creates a live environment for predictive agents with real-world outcome rewards.agents, evaluation, environment, online-learning, forecasting
2604.26355Shorthand for Thought: Compressing LLM Reasoning via Entropy-Guided Supertokens
PDF
cs.CL87Compresses reasoning traces via supertokens, promising lower inference cost with retained accuracy.llm, reasoning, efficiency, tokenization, inference
2604.26411Unifying Runtime Monitoring Approaches for Safety-Critical Machine Learning: Application to Vision-Based Landing
PDF
cs.LG87Unified runtime monitoring taxonomy for safety-critical ML with concrete landing-case evaluation.safety, runtime-monitoring, ood, safety-critical-ml, evaluation
2604.26419Delineating Knowledge Boundaries for Honest Large Vision-Language Models
PDF
cs.CV, cs.AI85Improves VLM honesty by teaching refusal on unknowns; relevant to hallucination and reliability.vlm, hallucination, uncertainty, refusal, alignment
2604.26835HalluCiteChecker: A Lightweight Toolkit for Hallucinated Citation Detection and Verification in the Era of AI Scientists
PDF
cs.CL, cs.AI, cs.DL85Practical toolkit for hallucinated citation detection; directly useful for AI scientist safety.hallucination, citations, tooling, evaluation, ai-scientists
2604.26951Turning the TIDE: Cross-Architecture Distillation for Diffusion Large Language Models
PDF
cs.CL, cs.AI, cs.LG85Cross-architecture distillation for diffusion LLMs; notable frontier-model efficiency contribution.diffusion-llm, distillation, model-compression, architecture, efficiency
2604.26525PRAG End-to-End Privacy-Preserving Retrieval-Augmented Generation
PDF
cs.CR84End-to-end privacy-preserving RAG with encrypted retrieval is important for secure LLM deployment.RAG, privacy, security, retrieval, confidentiality
2604.26768Decoupling Knowledge and Task Subspaces for Composable Parametric Retrieval Augmented Generation
PDF
cs.CL84Addresses composability and stability in parametric RAG by separating knowledge from task behavior.rag, retrieval, knowledge, modularity, llm
2604.26557DUAL-BLADE: Dual-Path NVMe-Direct KV-Cache Offloading for Edge LLM Inference
PDF
cs.DC, cs.AI, cs.PF84Edge LLM inference via NVMe-direct KV offloading; practical memory-system advance for deployment.edge-llm, kv-cache, offloading, inference, systems
2604.26923ClassEval-Pro: A Cross-Domain Benchmark for Class-Level Code Generation
PDF
cs.SE, cs.CL83Fresh benchmark for class-level code generation with contamination-aware construction.code-llms, benchmark, evaluation, contamination, software-engineering
2604.26334Efficient, VRAM-Constrained xLM Inference on Clients
PDF
cs.DC, cs.AR, cs.LG83Practical VRAM-constrained xLM inference for clients; useful systems advance for dense and MoE models.inference, efficiency, edge, llm, vlm, moe
2604.26495Beyond Code Reasoning: A Specification-Anchored Audit Framework for Expert-Augmented Security Verification
PDF
cs.CR82Specification-anchored security auditing is novel and could strengthen AI-assisted code verification.security, auditing, verification, specifications, code
2604.26805Bian Que: An Agentic Framework with Flexible Skill Arrangement for Online System Operations
PDF
cs.AI, cs.MA82Agentic ops framework tackles orchestration and hallucination in real online system operations.agents, operations, orchestration, hallucination, deployment
2604.26644When to Vote, When to Rewrite: Disagreement-Guided Strategy Routing for Test-Time Scaling
PDF
cs.AI82Training-free routing among test-time scaling strategies using disagreement; useful reasoning reliability idea.reasoning, test-time-scaling, routing, reliability, inference
2604.26561Preserving Disagreement: Architectural Heterogeneity and Coherence Validation in Multi-Agent Policy Simulation
PDF
cs.MA, cs.AI81Studies artificial consensus in LLM multi-agent deliberation; relevant to agent reliability and governance.agents, multi-agent, reliability, evaluation, governance
2604.26311DreamProver: Evolving Transferable Lemma Libraries via a Wake-Sleep Theorem-Proving Agent
PDF
cs.AI81Agentic theorem proving with evolving reusable lemma libraries; promising for autonomous reasoning agents.agents, theorem-proving, program-induction, reasoning, formal-methods

AI 论文洞察简报

2026-05-01

0) 核心结论(请先阅读)

  • 运行时与系统方向正在攻克新的瓶颈:rollout/生成,而不只是训练 FLOPs。 DORA 和系统级集成的推测解码都表明,RL 后训练可以在没有明显质量损失的情况下获得实质性加速;与此同时,长上下文服务相关论文也将类似思路推进到 KV-cache、稀疏注意力以及客户端/边缘推理中。
  • 行为安全监测正变得更具可操作性且更偏黑盒。 多篇论文不再依赖权重访问或纯 CoT 检查,而是转向可观测信号:用于发现 sandbagging 的响应位置熵、用于检测 alignment faking 的工具选择变化、面向智能体的有状态工作流防火墙,以及面向安全关键型 ML 的统一运行时监控。
  • 智能体安全正从提示过滤转向工作流级与基础设施级防御。 Praetor 的 pDFA 防火墙、SafeReview 的协同进化防御、SPECA 的基于规范的审计,以及 Quantamination 的批处理侧信道,都指向同一个结论:攻击面正越来越多地存在于编排、服务和序列行为中。
  • 检索/记忆正变得自适应且具备模态感知能力。 ReaLM-Retrieve 不再只在开头检索一次,而是在推理步骤边界触发检索;OCR-Memory 则将长时程智能体轨迹以图像形式存储,以便在 token 限制下保留逐字证据。
  • 对齐论文越来越关注校准后的弃答能力与可检测的欺骗,而不只是答案质量。 Visual-Idk 提升了 VLM 在未知知识上的拒答能力,Tatemae 通过工具选择衡量 alignment faking,而 sandbagging 论文则表明,聚合后的分布特征可以揭示故意的低表现。
  • 基准测试正变得更真实,也更难被“刷榜”。 面向机器人医疗安全、类级代码生成、Claw 风格工作区智能体以及实时预测的新数据集,都更强调结构化执行、抗污染性或真实世界结果反馈。

2) 关键主题(聚类)

主题:对欺骗性或失配模型行为的行为检测

  • 为什么重要:一个反复出现的主题是,即使内部推理被隐藏或并不忠实,危险行为仍可能在聚合后的动作层面可见。这对部署很有价值,因为所提出的信号大多是黑盒的,且运行成本低。
  • 代表性论文
  • 共同方法
    • 使用可观测行为而非潜在状态访问:响应分布、工具选择、拒答率。
    • 通过受控条件或分阶段提示,将能力失败策略性行为区分开来。
    • 偏好聚合式诊断,而非脆弱的逐样本信号。
    • 评估对齐干预是否能在提升诚实性/拒答能力的同时保留有用能力。
  • 开放问题 / 失效模式
    • 这些信号可能具有模式特异性,面对更复杂、内容感知型的欺骗时可能失效。
    • 由提示诱发的行为未必能泛化到微调后或自然出现的 scheming。
    • 拒答校准可能带来alignment tax,压制本来已知正确的答案。
    • 某些方法在最强结论上仍依赖 judge 模型或私有推理轨迹。

主题:智能体安全正转向序列化、有状态、基于规范的防御

主题:RL 与推理系统正围绕 rollout、KV 与内存瓶颈进行优化

主题:检索与记忆正变得自适应、压缩化,并更注重证据保真

主题:更真实的基准正在暴露具身、代码与实时智能体场景中的能力缺口

3) 技术综合

  • 多篇论文用分布式或聚合式诊断替代逐实例判断:通过熵/JS 散度检测 sandbagging,通过集中度指标检测 policy-simulation,以及通过 safety-gain/availability-cost 权衡进行运行时安全评估。
  • 一个常见的系统模式是将正确性语义与吞吐优化解耦:DORA 保持 C1–C3 约束,推测解码保持 verifier-exact rollout,PRAG 则在共享索引的同时分离加密检索模式。
  • 多项工作使用轻量级不确定性代理来分配计算或干预:测试时路由中的 disagreement、检索时机中的 RSUS,以及 UPSi 中用于安全探索的 certainty sets。
  • 有状态执行正成为明显趋势:面向智能体工作流的 pDFA、用于 alignment faking 的工具选择流水线,以及多步审查攻击/防御,都假设单轮过滤已不足够。
  • 多篇论文表明,内存层级设计如今已成为核心模型性能工作:GPU/CPU/NVMe 放置、bucketed-LRU、页抽象和 KV 复用,与 kernel 速度同样重要。
  • 检索论文越来越优化证据忠实性,而不只是答案准确率:OCR-Memory 在索引预测后确定性抓取逐字文本,而自适应检索则减少不必要调用和注入上下文。
  • 一个反复出现的失效模式是在知识缺失下的虚假自信:VLM 的认知性幻觉、机器人医疗中的不安全计划,以及类级代码生成都表明,模型可能看起来很有能力,但在协同或未知问题上失败。
  • 多篇论文将human-in-the-loop 更新作为务实折中:Praetor 的 blocked-event incorporation、Bian Que 的技能精炼,以及专家增强的 SPECA。
  • 在可解释性与对齐方向,越来越多工作关注稀疏、可操作的内部方向:MoRFI 找到与诱发幻觉微调相关的单调 SAE 潜变量,而 shorthand supertokens 则暴露结构化推理动作,同时不隐藏轨迹。
  • 基准设计正越来越更难污染、也更易验证,例如使用 2025 年后的代码挖掘、实时未解决问题、基于执行的检查或结构化场景生成。

4) Top 5 论文(附“为什么是现在”)

DORA: A Scalable Asynchronous Reinforcement Learning System for Language Model Training

  • 形式化提出了安全异步 RL 训练的三个约束:轨迹内策略一致性、数据完整性和有界陈旧性。
  • 在报告实验中,实现了最高 8.2× rollout 加速2.12× 端到端吞吐提升,且收敛性与同步训练相当。
  • 现在尤其相关,因为长 CoT 和 MoE 的 RL 工作负载正使 rollout 成为主导瓶颈。
  • 对于需要在不改变 RL 目标的前提下扩大后训练规模的团队,这项工作很有价值。
  • 质疑 / 局限:对比大多发生在内部框架内,而且陈旧性参数仍需手动调优。

Quantamination: Dynamic Quantization Leaks Your Data Across the Batch

  • 识别出批处理推理中由按张量动态激活量化导致的具体跨用户隐私泄露。
  • 在所研究设置中,展示了接近完美的 LLM token 恢复(99.6–100%),并且当秘密位于候选集合中时可实现图像精确识别。
  • 之所以重要,是因为批处理多租户推理和量化服务已是标准生产默认配置。
  • 可操作结论:按 token 动态量化可以消除文中描述的侧信道。
  • 质疑 / 局限:实际利用依赖共同批处理,且可能被生产环境中的非确定性削弱。

Enforcing Benign Trajectories: A Behavioral Firewall for Structured-Workflow AI Agents

  • 将良性遥测编译为参数化 DFA,同时约束工具调用序列和参数模式。
  • 在结构化工作流上实现 2.2% ASR,而无状态基线为 12.8%;在这些设置下,对多步/上下文序列攻击实现 0% ASR
  • 现在很有用,因为智能体安全失败越来越多来自看似良性的多步工作流,而不是明显的提示注入。
  • 较低的运行时开销(中位数约 2.2 ms)使其有望作为部署侧车组件。
  • 质疑 / 局限:对高熵智能体效果下降,且字符串嵌入防护仍可被同义改写绕过。

When to Retrieve During Reasoning: Adaptive Retrieval for Large Reasoning Models

  • 将检索从一次性的生成前步骤,转变为推理步骤中的干预策略
  • 在 MuSiQue 上,报告 71.2% F1、1.8 次检索调用,相比 IRCoT 的 65.4%、3.4 次调用,且单次调用延迟更低。
  • 之所以及时,是因为长推理模型越来越常在推理链中途因知识缺口而失败,而静态 RAG 无法预先预判。
  • 实用价值很高:该方法模块化强,即使面对仅提供 completion API 的系统,也能通过代理不确定性信号工作。
  • 质疑 / 局限:性能仍依赖语料覆盖度,并且在需要大量检索时会退化。

Benchmarking the Safety of Large Language Models for Robotic Health Attendant Control

  • 引入了一个包含 270 个有害指令样本的数据集,以 AMA 医学伦理为基础,并在机器人动作规划场景中评估 72 个模型
  • 发现平均违规率为 54.4%,且专有模型与开放权重模型之间存在显著差距(23.7% vs 72.8% 中位违规率)。
  • 现在之所以重要,是因为具身医疗智能体正从对话走向动作规划,而此类失败在操作层面具有危险性。
  • 成对的良性改写有助于说明,低违规率并不只是“一律拒答”。
  • 质疑 / 局限:结果来自仿真,并依赖单一 LLM judge,而非人工裁定。

5) 实际下一步

  • 在评测套件中加入黑盒行为监测器:选项随机化下的响应位置熵、监控条件下的工具选择偏移测试,以及已知/未知划分上的拒答校准。
  • 审计服务栈中的跨租户泄露风险,尤其是批处理推理中任何按张量动态激活量化的使用。
  • 对于使用工具的智能体,从无状态提示过滤转向会话级工作流执行,采用显式状态机或策略自动机。
  • 如果你在做 RL 后训练,应单独基准测试rollout 阶段瓶颈,并在修改学习算法前先测试异步流式处理或 verifier-exact 推测解码。
  • 对于长时程智能体,应衡量记忆系统的证据忠实性,而不只是下游任务成功率;可考虑在检索选择后进行确定性抓取。
  • 在 RAG 流水线中,测试自适应检索时机,而不只是提升检索器质量;记录检索在推理链的哪个位置真正改变了结果。
  • 对于 VLM 或领域专用助手,构建Known vs Unknown 校准集,并将真实性跟踪为“回答或拒答”,而不只是准确率。
  • 将安全基准扩展到结构化动作输出和终态验证,尤其是在机器人、医疗和企业运营场景中。

基于逐篇论文分析生成;未进行外部浏览。