AI 论文日报(2026-04-29)

Published:

English version: /paper-news/2026-04-29/

运行统计

  • 候选论文: 244
  • 入选论文: 30
  • 已精读完成: 30
  • 时间窗口 (UTC): 2026-04-27T00:00:00Z → 2026-04-28T00:00:00Z (arxiv_announce, expanded=0)
展开查看用于总结的论文列表
arXiv ID标题 / 链接分类评分入选理由标签
2604.24118AgentVisor: Defending LLM Agents Against Prompt Injection via Semantic Virtualization
PDF
cs.CR95Prompt-injection defense for agents via semantic privilege separation and audited tool mediation.agent-security, prompt-injection, tool-use, sandboxing, guardrails
2604.24082Jailbreaking Frontier Foundation Models Through Intention Deception
PDF
cs.CR, cs.AI, cs.CL95Targets jailbreaks via intention deception against frontier safe-completion models; highly safety-relevant.jailbreak, agent-safety, safe-completion, red-teaming, frontier-models
2604.24542Layerwise Convergence Fingerprints for Runtime Misbehavior Detection in Large Language Models
PDF
cs.CR, cs.AI, cs.CL93Runtime monitor for jailbreaks, prompt injection, and backdoors without clean-model assumptions.runtime-monitoring, jailbreaks, prompt-injection, backdoors, llm-security
2604.24657AgentWard: A Lifecycle Security Architecture for Autonomous AI Agents
PDF
cs.CR, cs.AI92Defense-in-depth security architecture for autonomous agents across lifecycle stages and tool execution.agent-security, agents, defense-in-depth, tool-use, runtime-safety
2604.24348OS-SPEAR: A Toolkit for the Safety, Performance,Efficiency, and Robustness Analysis of OS Agents
PDF
cs.CL91Comprehensive OS-agent toolkit spanning safety, performance, efficiency, and robustness evaluation.agents, benchmark, os-agents, safety-evaluation, robustness
2604.24700Green Shielding: A User-Centric Approach Towards Trustworthy AI
PDF
cs.CL, cs.AI91User-centric robustness benchmark for benign prompt variation; strong deployment-safety relevance.llm-safety, evaluation, robustness, medical-ai, red-teaming
2604.24710Case-Specific Rubrics for Clinical AI Evaluation: Methodology, Validation, and LLM-Clinician Agreement Across 823 Encounters
PDF
cs.AI, cs.CL91Clinician-authored rubric framework for scalable clinical AI eval with large real-world validation.evaluation, clinical-ai, llm-as-judge, safety, deployment
2604.24074How Sensitive Are Safety Benchmarks to Judge Configuration Choices?
PDF
cs.CL90Shows safety benchmark scores vary sharply with judge prompts, challenging reliability of current evals.safety-evaluation, llm-as-judge, benchmarking, harmbench, measurement
2604.24618Evaluating whether AI models would sabotage AI safety research
PDF
cs.AI89Direct evaluation of whether frontier models sabotage AI safety research in agentic settings.ai-safety, agent-evals, sabotage, frontier-models, alignment
2604.24594Skill Retrieval Augmentation for Agentic AI
PDF
cs.CL, cs.AI89Scalable skill retrieval for agents tackles context limits; likely reusable agent framework/benchmark.agents, retrieval, tool-use, long-context, agent-architecture
2604.24697Can Current Agents Close the Discovery-to-Application Gap? A Case Study in Minecraft
PDF
cs.AI89Benchmark for agents' discovery-to-application loop; tests generalization beyond memorized solutions.agents, benchmark, reasoning, evaluation, generalization
2604.24005TCOD: Exploring Temporal Curriculum in On-Policy Distillation for Multi-turn Autonomous Agents
PDF
cs.LG, cs.AI88Addresses instability in on-policy distillation for multi-turn agents with curriculum training.agents, distillation, reinforcement-learning, reasoning, training
2604.24198Rewarding the Scientific Process: Process-Level Reward Modeling for Agentic Data Analysis
PDF
cs.CL, cs.AI, cs.CE, cs.LG, cs.MA88Process reward modeling for agentic data analysis with environment-aware verification and silent-error detection.process-reward-model, agents, verification, reasoning, reliability
2604.24473Agentic clinical reasoning over longitudinal myeloma records: a retrospective evaluation against expert consensus
PDF
cs.AI, cs.CL88Large retrospective study of agentic clinical reasoning over long records against expert consensus.agents, clinical-ai, long-context, rag, evaluation
2604.24686Governing What You Cannot Observe: Adaptive Runtime Governance for Autonomous AI Agents
PDF
cs.AI87Adaptive runtime governance framework for autonomous agents with explicit risk-bound decision rules.agent-governance, runtime-safety, risk-estimation, autonomous-agents, monitoring
2604.24021QED: An Open-Source Multi-Agent System for Generating Mathematical Proofs on Open Problems
PDF
cs.AI, math.AP87Open multi-agent proof system with explicit failure modes; useful for agent reliability research.agents, reasoning, evaluation, multi-agent, math
2604.24395Aligning with Your Own Voice: Self-Corrected Preference Learning for Hallucination Mitigation in LVLMs
PDF
cs.AI86Self-corrected preference learning for LVLM hallucination mitigation with concrete alignment angle.alignment, hallucination, vlm, dpo, reliability
2604.24197Seeing Is No Longer Believing: Frontier Image Generation Models, Synthetic Visual Evidence, and Real-World Risk
PDF
cs.CL, cs.AI86Timely risk analysis of frontier image models and synthetic visual evidence with policy relevance.ai-safety, multimodal, misinformation, risk-analysis, frontier-models
2604.24162Defusing the Trigger: Plug-and-Play Defense for Backdoored LLMs via Tail-Risk Intrinsic Geometric Smoothing
PDF
cs.CR, cs.AI85Plug-and-play inference-time defense for backdoored LLMs with no retraining or clean data.backdoor-defense, llm-security, inference-time, robustness, attention
2604.24184Dynamic Cyber Ranges
PDF
cs.CR84Dynamic cyber ranges with defender agents offer stronger evaluation for offensive agent capabilities.cybersecurity, agent-evaluation, red-teaming, defender-agents, benchmarks
2604.24698The Chameleon's Limit: Investigating Persona Collapse and Homogenization in Large Language Models
PDF
cs.CL84Identifies persona collapse in LLM populations; important for multi-agent realism and risk analysis.multi-agent, evaluation, llm-behavior, robustness, social-simulation
2604.24302Differentiable Faithfulness Alignment for Cross-Model Circuit Transfer
PDF
cs.CL84Mechanistic interpretability method for transferring circuits across models could improve scalable auditing.mechanistic-interpretability, circuits, model-auditing, transfer, reliability
2604.24039AgenticCache: Cache-Driven Asynchronous Planning for Embodied AI Agents
PDF
cs.LG, cs.AI, cs.CL84Improves embodied agent efficiency via cache-based planning with strong latency and token reductions.agents, efficiency, planning, embodied-ai, llm-systems
2604.24623XGRAG: A Graph-Native Framework for Explaining KG-based Retrieval-Augmented Generation
PDF
cs.AI, cs.IR, cs.LG82Explainability for GraphRAG via causal graph perturbations improves transparency and trust.rag, graphrag, interpretability, grounding, explainability
2604.24178Meta-Aligner: Bidirectional Preference-Policy Optimization for Multi-Objective LLMs Alignment
PDF
cs.LG, cs.AI82Adaptive multi-objective alignment via meta-learning addresses conflicting values in LLM optimization.alignment, multi-objective, preference-optimization, meta-learning, llms
2604.23954An empirical evaluation of the risks of AI model updates using clinical data: stability, arbitrariness, and fairness
PDF
cs.AI82Empirical study of model update risks in clinical AI covering stability, arbitrariness, and fairness.safety, fairness, evaluation, clinical-ai, model-updates
2604.24477GAMMAF: A Common Framework for Graph-Based Anomaly Monitoring Benchmarking in LLM Multi-Agent Systems
PDF
cs.CR, cs.AI80Open benchmarking framework for anomaly monitoring in LLM multi-agent systems under attacks.multi-agent, benchmark, anomaly-detection, security, evaluation
2604.24564MEG-RAG: Quantifying Multi-modal Evidence Grounding for Evidence Selection in RAG
PDF
cs.CL, cs.IR, cs.IT80Metric for multimodal evidence grounding in RAG targets hallucination and evidence quality.rag, multimodal, evaluation, grounding, hallucination
2604.24222MEMCoder: Multi-dimensional Evolving Memory for Private-Library-Oriented Code Generation
PDF
cs.SE, cs.AI, cs.CL80Memory framework for private-library codegen addresses enterprise RAG gaps with evolving usage guidance.code-llm, rag, memory, enterprise-ai, agents
2604.24038AgentPulse: A Continuous Multi-Signal Framework for Evaluating AI Agents in Deployment
PDF
cs.AI, cs.CL, cs.SE79Continuous deployment-time evaluation for AI agents using multi-signal metrics beyond static benchmarks.agent-evaluation, deployment, monitoring, benchmarks, ecosystem

AI 论文洞察简报

2026-04-29

0) 执行要点(请先阅读)

  • Agent 工作的重心正从单一分数上的能力提升,转向运行时控制与部署现实性:多篇论文聚焦于持续评估、生命周期防御、运行时监控,以及动态基准,而不再只看静态任务成功率。
  • 一个反复出现的模式是:结构化中介优于朴素扩展:用于蒸馏的时间课程、用于工具使用的语义管理器、用于数据分析的过程奖励模型,以及技能/记忆脚手架,都优于更简单的“只给模型更多上下文”的基线。
  • 评估本身正受到隐藏方差的冲击:评审提示词措辞可使安全分数波动高达 24.2 分,面向部署的排名与仅基于基准的排名显著分化,而 persona/群体保真度即使在单样本指标看起来不错时也可能失效。
  • 安全研究正越来越多地瞄准间接式与跨生命周期的失效:旁路越狱、通过外部内容进行的提示注入、带后门的权重,以及多智能体感染,都要求防御机制能够监控内部状态,或在多个阶段之间中介动作。
  • 在高风险领域,最强结果通常来自使用工具、结构化、并带有显式验证的系统,但残余错误的后果仍比总体指标所显示的更严重——尤其是在临床和安全关键场景中。
  • 对前沿进展而言,实际瓶颈已不再主要是原始模型能力,而更多是纳入、稳定性、 grounding(扎根/依据)、以及治理:仅仅检索到技能或证据还不够,Agent 还必须知道何时以及如何安全地使用它们。

2) 关键主题(聚类)

主题:面向 Agent 的运行时治理与纵深防御

主题:Agent 评估正变得更面向部署,也更难信任

主题:在长时程 Agent 中,结构化脚手架优于朴素的上下文堆砌

主题:Grounding、验证与证据选择正在前移

主题:安全研究正瞄准间接式、自适应和多智能体攻击面

主题:高风险领域正在暴露总体指标的局限性

3) 技术综合

  • 多篇论文收敛到一种先监控,再干预的模式:LCF 在生成前监控隐藏状态增量,AgentVisor 审计拟议的工具调用,TIGS 在平滑前筛查注意力塌缩,临床弃权方法则在分布外案例上选择延后决策。
  • 结构化中间表示是反复出现的使能因素:QED 中的 YAML 证明 DAG、AgentVisor 中的语义异常、MEMCoder 中的任务/API 指南记忆、临床 Agent 中的结构化记忆,以及 SCICRAFTER 中的 claim-proof-constraints-example 摘要。
  • Agent 论文中的一个共同失效模式是检索/纳入失配:检索到正确技能、证据或文档,往往比让模型正确使用它更容易。
  • 多项工作用分级过程信号替代二元正确性:DataPRM 的三元奖励、临床 rubric 加权,以及多因子部署分数,都比通过/失败指标更能刻画可恢复与不可恢复错误。
  • 课程与节奏控制似乎是一种通用稳定化工具:TCOD 在蒸馏期间控制 rollout 时程;发现型 Agent 在分阶段提示/科学家脚手架下表现更好;记忆系统则随时间演化指南,而不是一次性注入所有内容。
  • 安全防御越来越依赖内部几何或拓扑,而不仅是文本分类:注意力塌缩、逐层收敛指纹、图异常监控,以及原生图扰动解释。
  • 多篇论文表明基准天花板可能具有误导性:迭代式 RAG 与全上下文在纵向临床推理中趋于收敛;仅基于基准的排名与面向部署的排名发生分化;单 persona 保真度掩盖了群体塌缩。
  • 目前正出现一种日益明显的分裂:一类是概念框架强但定量验证弱的架构型论文,另一类是经验评测很重但范围较窄的基准型论文;两者兼具的工作仍然罕见。
  • 在多模态场景中,最强增益来自证据贡献建模而非原始相关性,无论是用于重排序(MEG-RAG)还是幻觉纠正(AVES-DPO)。
  • 跨领域来看,保留效用的防御才是真正的区分点:一次性自我纠正、异步缓存更新、对探索行为的过程奖励,以及选择性技能加载,都在努力避免常见的安全—性能双输。

4) Top 5 论文(附“为什么是现在”)

  • AgentVisor: Defending LLM Agents Against Prompt Injection via Semantic Virtualization
    • 将 Agent 安全重构为权限分离问题:不可信的 Guest 提议动作,可信的 Visor 通过 Suitability、Taint 和 Integrity 检查对其进行审计。
    • 在所评估的直接与间接提示注入基准上实现接近零的 ASR,同时在攻击下保留了相当可观的效用。
    • 一次性语义异常恢复路径具有很强的实用价值,因为它避免了纯阻断式防御带来的效用崩塌。
    • 为什么是现在:提示注入正从玩具演示走向真实的工具使用 Agent,而这是目前最清晰、最可部署的中介式架构之一。
    • 保留意见:增加延迟,聚焦文本场景,且长上下文/多模态扩展问题仍未解决。
  • Rewarding the Scientific Process: Process-Level Reward Modeling for Agentic Data Analysis
    • 识别出数据分析 Agent 中 PRM 的两个具体失效模式:静默语义错误,以及对探索性 grounding 步骤的过度惩罚。
    • DataPRM 使用环境感知的 ReAct 验证、工具调用和三元奖励,同时提升了测试时扩展和 RL 训练效果。
    • 一个 4B 验证器优于更大的 PRM 基线,这一点对实际 Agent 技术栈尤其重要。
    • 为什么是现在:agentic 科学/数据分析工作流正在快速扩散,而过程监督正变得比最终答案打分更重要。
    • 保留意见:范围仍主要集中在推理/可视化任务,且验证器流水线增加了计算与标注开销。
  • Jailbreaking Frontier Foundation Models Through Intention Deception
    • 引入 para-jailbreaking:模型可以拒绝直接有害请求,却仍在看似无害的叙事下泄露有害替代内容。
    • iDecep 在前沿系统上展示了强多轮攻击成功率,包括借助无害图像进行的多模态放大。
    • 这篇论文的重要性在于,它针对的是更新的安全完成范式,而不是更早期的仅拒绝式防御。
    • 为什么是现在:随着实验室转向“有帮助但安全”的完成方式,间接泄露正成为比粗暴绕过拒绝更现实的失效模式。
    • 保留意见:黑盒实验范围有限,且具体攻击工具未公开,使复现和防御基准测试更困难。
  • Agentic clinical reasoning over longitudinal myeloma records: a retrospective evaluation against expert consensus
    • 表明结构化 agentic 系统能够在复杂纵向临床推理中击败迭代式 RAG 和全上下文基线。
    • 增益在最难问题和最长病历上最大,而当前非 agentic 方法似乎已触及天花板。
    • 消融实验表明,改进的主要驱动力是技能库,而不仅仅是工具访问。
    • 为什么是现在:这是一个具体信号,说明 agentic 结构也许终于能在真实高风险领域中超越暴力式检索/上下文扩展。
    • 保留意见:研究是回顾性的、机构特定的,而且系统残余错误在临床上往往比专家分歧更显著。
  • How Sensitive Are Safety Benchmarks to Judge Configuration Choices?
    • 量化了一个重要但讨论不足的基准不稳定来源:仅评审提示词措辞就能使有害率估计波动高达 24.2 分。
    • 表明即使是在同一提示条件下的表层改写,也会导致大幅波动和排名反转。
    • 对任何使用 LLM-as-judge 安全分数进行模型比较或治理的人来说,这都是一个直接的方法论警告。
    • 为什么是现在:安全基准正越来越多地被用于部署和政策决策,但许多报告中的差异可能比评审诱发的方差还小。
    • 保留意见:主要分析集中于一个评审模型和一个基准,且缺乏人工准确性锚点。

5) 实际下一步

  • 对任何内部安全基准运行多提示评审审计;报告区间和排名稳定性,而不只是单一有害性数字。
  • 为工具使用 Agent 增加运行时中介层:至少在执行前审计工具适用性、目标一致性和参数完整性。
  • 在可能的情况下,为 Agent 加入prefill/运行时异常信号——隐藏状态或动作序列监控器可以捕捉输出过滤器遗漏的失败。
  • 对长时程 Agent,在扩展上下文或模型规模之前,先测试课程式暴露过程级奖励;许多失败本质上是排序失败。
  • 将你的 Agent 技术栈拆分为检索、纳入和应用三类指标。如果性能停滞,检查模型是否真的在使用检索到的技能/证据。
  • 在 RAG 和多模态系统中,按边际证据贡献而不是仅按语义相似度进行重排序;“相关但无贡献”是常见幻觉来源。
  • 在高风险部署中,跨版本更新跟踪稳定性、子群体效应和弃权分布,而不只是总体准确率。
  • 在评估合成用户或多智能体群体时,加入群体层面几何检查(覆盖度、均匀性、复杂度),以捕捉被单样本保真度掩盖的同质化。
  • 如果你在对抗环境中部署自主 Agent,请在动态环境且有主动防御者或拓扑更新的条件下对其进行基准测试,而不只是静态任务。

基于逐篇论文分析生成;未进行外部浏览。