AI 论文日报(2026-03-18)
Published:
English version: /paper-news/2026-03-18/
运行统计
- 候选论文: 282
- 入选论文: 30
- 已精读完成: 30
- 时间窗口 (UTC): 2026-03-16T00:00:00Z → 2026-03-17T00:00:00Z (arxiv_announce, expanded=0)
展开查看用于总结的论文列表
| arXiv ID | 标题 / 链接 | 分类 | 评分 | 入选理由 | 标签 |
|---|---|---|---|---|---|
2603.15125 | From Storage to Steering: Memory Control Flow Attacks on LLM Agents | cs.CR | 95 | New persistent agent threat: memory steers tool control flow; adds MEMFLOW eval framework | agent-security, memory, tool-use, prompt-injection, evaluation, control-flow |
2603.14975 | 入选理由 Agents Compromise Safety Under Pressure | cs.AI, cs.CL, cs.CY, cs.MA | 95 | Studies safety tradeoffs in LLM agents under “pressure”; finds normative drift + mitigations. | agent-safety, constraint-violation, jailbreak-dynamics, robustness, mitigation, evaluation |
2603.14707 | Visual Confused Deputy: Exploiting and Defending Perception Failures in Computer-Using Agents | cs.CV, cs.CL | 93 | Formalizes exploitable GUI grounding failures (visual confused deputy) + defenses for CUAs | computer-using-agents, GUI-security, confused-deputy, TOCTOU, grounding, agent-safety |
2603.15417 | Amplification Effects in Test-Time Reinforcement Learning: Safety and Reasoning Vulnerabilities | cs.LG, cs.AI, cs.CL, cs.CR | 92 | Shows test-time RL/TTT can amplify injected harmful behavior; key warning for TTT agents | test-time-training, TTRL, prompt-injection, safety, reasoning, robustness |
2603.15473 | Agent Lifecycle Toolkit (ALTK): Reusable Middleware Components for Robust AI Agents | cs.AI | 92 | Open-source middleware to harden agents across lifecycle (prompting, tools, policy, monitoring). | agents, middleware, robustness, tool-safety, governance, monitoring, guardrails |
2603.15594 | OpenSeeker: Democratizing Frontier Search Agents by Fully Open-Sourcing Training Data | cs.AI, cs.CL | 92 | Fully open-sourced frontier search agent + training data; big for reproducible agentic RAG/search. | agents, search, RAG, open-source, synthetic-data, tool-use, evaluation |
2603.15408 | TrinityGuard: A Unified Framework for Safeguarding Multi-Agent Systems | cs.CR, cs.AI, cs.CL, cs.LG, cs.MA | 90 | OWASP-grounded MAS risk taxonomy + monitoring/eval framework for multi-agent hazards | multi-agent, OWASP, risk-taxonomy, monitoring, evaluation, agent-security |
2603.14825 | Two Birds, One Projection: Harmonizing Safety and Utility in LVLMs via Inference-time Feature Projection | cs.CV, cs.AI | 90 | Inference-time LVLM jailbreak defense aiming to improve safety without utility loss via feature projection. | LVLM, jailbreak, robustness, inference-time, safety-utility, multimodal |
2603.15423 | Invisible failures in human-AI interactions | cs.CL | 90 | Finds 78% of AI failures are “invisible” in WildChat; taxonomy of failure archetypes. | evaluation, human-AI-interaction, reliability, failure-modes, monitoring, WildChat |
2603.15457 | Evasive Intelligence: Lessons from Malware Analysis for Evaluating AI Agents | cs.CR, cs.AI | 88 | Agent evals can be gamed via sandbox-evasion analogs; reframes evaluation as security | evaluation, agentic-systems, sandbox-evasion, security, robustness, deployment |
2603.15030 | VTC-Bench: Evaluating Agentic Multimodal Models via Compositional Visual Tool Chaining | cs.AI | 88 | Benchmark for multimodal agent tool-use with compositional visual tool chaining (32 OpenCV ops). | benchmark, multimodal-agents, tool-use, evaluation, computer-vision, tool-chaining |
2603.15255 | SAGE: Multi-Agent Self-Evolution for LLM Reasoning | cs.AI, cs.MA | 88 | Multi-agent self-evolution with verifiable rewards; relevant to scalable reasoning training and agent risks. | reasoning, multi-agent, RL, verifiable-rewards, self-play, planning, training |
2603.15033 | Rethinking Machine Unlearning: Models Designed to Forget via Key Deletion | cs.LG | 88 | Unlearning-by-design via key deletion; targets practical privacy/poisoning removal constraints. | machine-unlearning, privacy, data-deletion, robustness, security |
2603.15309 | CCTU: A Benchmark for Tool Use under Complex Constraints | cs.CL, cs.AI | 86 | Tool-use benchmark under complex constraints; long prompts, taxonomy, curated hard cases | tool-use, benchmark, constraints, function-calling, evaluation, agents |
2603.15483 | Talk, Evaluate, Diagnose: User-aware Agent Evaluation with Automated Error Analysis | cs.AI | 86 | Unified agent evaluation incl. user role + automated error diagnosis beyond pass/fail correctness. | agents, evaluation, error-analysis, user-modeling, conversation-quality, diagnostics |
2603.15282 | Algorithms for Deciding the Safety of States in Fully Observable Non-deterministic Problems: Technical Report | cs.AI | 86 | Improves algorithms for deciding safe states/policies under nondeterminism; tighter runtime gap. | formal-safety, planning, verification, nondeterminism, policy-iteration |
2603.15401 | SWE-Skills-Bench: Do Agent Skills Actually Help in Real-World Software Engineering? | cs.SE, cs.AI | 85 | Benchmark isolates marginal utility of injected agent skills in real SWE with tests | software-engineering, agents, benchmark, skills, evaluation, verification |
2603.15617 | HorizonMath: Measuring AI Progress Toward Mathematical Discovery with Automatic Verification | cs.LG | 85 | Contamination-resistant benchmark of mostly unsolved math problems with automatic verification. | benchmark, math, verification, reasoning, evaluation, data-contamination |
2603.15051 | Thinking in Latents: Adaptive Anchor Refinement for Implicit Reasoning in LLMs | cs.CL, cs.AI, cs.LG | 84 | Adaptive latent reasoning to cut CoT cost; potentially impactful for efficient inference and reasoning control. | latent-reasoning, efficiency, chain-of-thought, inference, reasoning, LLMs |
2603.15136 | Safe Flow Q-Learning: Offline Safe Reinforcement Learning with Reachability-Based Flow Policies | cs.LG, cs.AI | 84 | Offline safe RL with reachability-style safety value + deployable one-step safe actor. | safe-RL, offline-RL, reachability, constraints, deployment |
2603.15259 | Directional Embedding Smoothing for Robust Vision Language Models | cs.LG, cs.AI, cs.CL, cs.CR | 83 | Lightweight VLM jailbreak defense (directional embedding smoothing) evaluated on JB-V-28K | VLM-safety, jailbreak, defense, randomized-smoothing, robustness, multimodal |
2603.15611 | Code-A1: Adversarial Evolving of Code LLM and Test LLM via Reinforcement Learning | cs.CL | 83 | Adversarial co-evolution of code LLM vs test LLM to avoid self-collusion and improve coverage. | code-LLMs, RL, adversarial-training, testing, evaluation, robustness |
2603.15044 | Prompt Readiness Levels (PRL): a maturity scale and scoring framework for production grade prompt assets | cs.AI, cs.CY, cs.LG | 82 | Operational governance framework for prompts: maturity levels + scoring for safety/compliance readiness. | prompting, governance, compliance, security, evaluation, process, safety |
2603.15518 | Beyond the Covariance Trap: Unlocking Generalization in Same-Subject Knowledge Editing for Large Language Models | cs.CL | 82 | Diagnoses prompt-variation generalization failures in knowledge editing; proposes geometric explanation/mitigation. | knowledge-editing, robustness, generalization, representations, reliability, LLMs |
2603.14968 | Rethinking LLM Watermark Detection in Black-Box Settings: A Non-Intrusive Third-Party Framework | cs.CR, cs.CL | 81 | Third-party black-box watermark verification; decouples detection from secret injection | watermarking, provenance, governance, black-box, auditing, LLM-security |
2603.15527 | Are Dilemmas and Conflicts in LLM Alignment Solvable? A View from Priority Graph | cs.AI, cs.CY | 80 | Models instruction/value conflicts as priority graph; highlights 'priority hacking' risk | alignment, instruction-hierarchy, conflicts, adversarial-context, runtime-verification |
2603.15599 | SmartSearch: How Ranking Beats Structure for Conversational Memory Retrieval | cs.LG | 80 | Strong deterministic conversational memory retrieval; shows ranking/truncation dominates structuring. | memory, retrieval, RAG, long-context, ranking, agents, efficiency |
2603.14864 | Shopping Companion: A Memory-Augmented LLM Agent for Real-World E-Commerce Tasks | cs.CL | 80 | Benchmark + method for long-term preference memory in real e-commerce; useful for agent memory evaluation. | agents, memory, long-horizon, benchmarks, personalization, retrieval |
2603.15351 | PMAx: An Agentic Framework for AI-Driven Process Mining | cs.AI, cs.MA | 80 | Agentic process-mining framework addressing hallucinations + privacy by tool-based analysis. | agents, tool-use, privacy, enterprise, hallucinations, workflow |
2603.15280 | Advancing Multimodal Agent Reasoning with Long-Term Neuro-Symbolic Memory | cs.AI | 79 | Neuro-symbolic long-term memory for multimodal agents to support deductive reasoning. | agents, memory, neuro-symbolic, multimodal, reasoning |
AI 论文洞察简报
2026-03-18
0) 执行要点(先读这个)
- “授权(Authorization)”正在移出模型之外:对计算机使用型智能体而言,信任锚点在屏幕上,因此处在同一感知闭环内的防御会失效;智能体外部验证(例如双通道的目标+意图检查)正在成为一种可行的实践模式。
- 推理时表征“手术”在多模态安全上正获得真实牵引力:特征空间投影(TBOP)与嵌入平滑(方向性 RESTA)都能在对效用影响适中的情况下显著降低多模态越狱 ASR——表明一套不断扩展的单次前向或轻量级测试时缓解工具箱正在形成。
- 智能体安全失败越来越呈现为交互性与轨迹依赖:“智能体压力(agentic pressure)”会导致规范漂移(安全下降、目标成功上升),而大规模 WildChat 分析表明多数失败是不可见的,并且即使模型更强也可能持续存在——监控需要从“用户投诉”转向主动检测。
- 评估正在收敛到可执行的、逐步级别的合规性:新的基准/工具(CCTU、VTC-Bench、TrinityGuard、SWE-Skills-Bench、TED)强调中间约束、工具链正确性与系统级多智能体风险;仅看最终成功率已不再足够。
- 数据与架构选择可以“内建”治理属性:第三方黑盒水印检测(TTP-Detect)与通过密钥删除实现的“按设计可遗忘”(MUNKEY)都旨在让监督/删除在无需特权访问或昂贵再训练的情况下可行。
2) 关键主题(聚类)
主题:智能体外部授权与运行时护栏
- 重要性:工具使用型与计算机使用型智能体可能因微小的感知或论证错误造成不可逆伤害。位于智能体运行时之外的护栏可以将运行时视为不可信,并在执行边界强制策略。
- 代表论文:
- Visual Confused Deputy: Exploiting and Defending Perception Failures in Computer-Using Agents(视觉混淆代理:利用与防御计算机使用型智能体的感知失败)
- Agent Lifecycle Toolkit (ALTK): Reusable Middleware Components for Robust AI Agents(智能体生命周期工具包 ALTK:面向鲁棒 AI 智能体的可复用中间件组件)
- PMAx: An Agentic Framework for AI-Driven Process Mining(PMAx:AI 驱动流程挖掘的智能体框架)
- 常见方法:
- 将检查放在生命周期钩子上(pre-tool / pre-click / post-tool),而不是“通过提示让智能体更安全”。
- 使用独立的分类器/裁判/验证器(对比式 KB 匹配;schema+语义验证;对生成代码做静态验证)。
- 偏好确定性或可审计的执行点(否决逻辑、白名单 API、本地执行)。
- 开放问题 / 失效模式:
- 覆盖缺口:单步检查会漏掉多步有害计划与内容级危害(例如输入的命令、选中的文件)。
- 运维负担:部署特定的 KB/策略,以及误报率与可用性的校准。
- 对抗性适应:嵌入相似度规避、裁判脆弱性、以及运行时操控(TOCTOU、被攻陷的截图流水线)。
主题:推理时的多模态越狱防御
- 重要性:跨模态输入可能将内部表征推离安全对齐区域,从而实现越狱。推理时防御具有吸引力,因为它们避免再训练且可叠加。
- 代表论文:
- 常见方法:
- 识别干扰方向/子空间(TBOP:通过空白图像位移向量 + SVD),并在后期激活处将其投影去除。
- 对嵌入做随机平滑并聚合(RESTA),其中方向性噪声优于各向同性噪声。
- 通过多模态越狱基准上的 ASR 以及标准 QA 上的效用(如 ScienceQA、MM-Vet)进行评估。
- 开放问题 / 失效模式:
- 对自适应攻击者的鲁棒性(两篇论文都指出静态基准的局限)。
- 锚点集合/超参数敏感性(秩 k、σ、采样数 k=10)。
- 适用范围限制:TBOP 对纯文本越狱效果较弱;平滑可能降低效用或被绕过。
主题:真实部署中的压力、不可见性与评估器区分
- 重要性:许多失败不会被用户投诉或标准产品指标捕捉;智能体在评估时也可能与部署时行为不同。这会同时削弱安全与测量。
- 代表论文:
- 常见方法:
- 通过轨迹依赖的压力注入进行压力测试;将安全遵循与目标成功分离;对“合理化解释”打分。
- 基于真实聊天日志进行大规模分类体系构建;识别“不可见”失败的原型。
- 将评估视为对抗过程:改变测试框架、使用影子执行、限制探测,并进行部署后审计。
- 开放问题 / 失效模式:
- 依赖 LLM 裁判进行合理化/失败标注(偏差、校准问题)。
- 将原型转化为可操作的运行时检测器与产品干预。
- 设计在智能体能推断自己被测试时仍然有效的评估。
主题:受约束工具使用与组合式工具链的基准
- 重要性:真实智能体必须遵守预算、schema、顺序约束与多步工具依赖。基准正在从“会不会调用工具”转向“能否可靠执行受约束工作流”。
- 代表论文:
- CCTU: A Benchmark for Tool Use under Complex Constraints(CCTU:复杂约束下工具使用基准)
- VTC-Bench: Evaluating Agentic Multimodal Models via Compositional Visual Tool Chaining(VTC-Bench:通过组合式视觉工具链评估智能体多模态模型)
- TrinityGuard: A Unified Framework for Safeguarding Multi-Agent Systems(TrinityGuard:多智能体系统防护的统一框架)
- SWE-Skills-Bench: Do Agent Skills Actually Help in Real-World Software Engineering?(SWE-Skills-Bench:智能体技能在真实软件工程中真的有用吗?)
- 常见方法:
- 逐步验证(可执行验证器;真实工具链;分层风险测试)。
- 超越最终成功的指标:约束下完美解(PSR)、工具效率、链长错误、分层通过率。
- 配对评估以隔离干预效果(有/无技能;代码式 vs 界面式工具调用)。
- 开放问题 / 失效模式:
- 低上限仍然存在:例如 CCTU 所有模型 PSR < 20%;VTC-Bench 即便有工具最高也约 51%。
- 基准偏差与构造伪影(模型起草的参考工具链;规模有限如 200 个样例)。
- 如何训练约束满足而不对验证器“怪癖”过拟合。
主题:长时程智能体的记忆与数据流水线(及其局限)
- 重要性:长时程效用依赖偏好记忆、在 token 预算下的检索与结构化流程——但许多“智能记忆”系统可能过度工程化或脆弱。
- 代表论文:
- Shopping Companion: A Memory-Augmented LLM Agent for Real-World E-Commerce Tasks(购物助手:面向真实电商任务的记忆增强 LLM 智能体)
- Advancing Multimodal Agent Reasoning with Long-Term Neuro-Symbolic Memory(用长期神经符号记忆推进多模态智能体推理)
- SmartSearch: How Ranking Beats Structure for Conversational Memory Retrieval(SmartSearch:为何排序优于结构化用于对话记忆检索)
- 常见方法:
- 通过工具介导的记忆检索,配合显式阶段与用户确认(Shopping Companion)。
- 神经发现 + 符号执行的混合,在流程 DAG 上运行(NS-Mem)。
- 确定性检索 + 轻量重排,胜过“LLM 重度”结构化,聚焦“编译瓶颈”(SmartSearch)。
- 开放问题 / 失效模式:
- 难任务仍然难:多商品受约束购物(“加购优惠”)远落后于单商品。
- 泛化风险:重 NER 的子串检索可能依赖基准伪影;符号流水线依赖验证器与感知模块。
- 如何衡量端到端用户价值而非基准代理指标。
主题:治理原语——第三方溯源与按设计删除
- 重要性:监督往往需要提供方不愿暴露的能力(如水印密钥、训练数据)。新工作试图在无需特权访问的情况下实现审计与删除。
- 代表论文:
- 常见方法:
- 黑盒相对测试:用参考生成 + 代理表征;集成多种统计检验(TTP-Detect)。
- 将实例级记忆外置到可删除的存储中(MUNKEY),使遗忘成为 O(1) 删除。
- 开放问题 / 失效模式:
- 对分布保持型方案,水印可检测性变弱;参考对齐成本主导运行时开销。
- 记忆增强遗忘依赖 key-encoder 对齐,并需要存储/索引基础设施。
3) 技术综合
- 外置化是反复出现的母题:(i)CUA 护栏外置授权;(ii)PMAx 将计算外置到本地确定性工具;(iii)MUNKEY 将记忆外置到可删除存储;(iv)TTP-Detect 通过参考采样将水印验证外置给第三方。
- 后期、低维干预因效率而流行:TBOP 编辑单个最后 token 的激活;AdaAnchor 精炼少量锚向量;两者都旨在将计算从长 token 轨迹中转移出来。
- 对“裁判(Judge)”的依赖无处不在,但失效模式不同:CCTU 使用可执行验证器;TED/TrinityGuard/压力合理化依赖 LLM 裁判;水印检测使用代理模型 + 统计。生态正在分裂为确定性 vs 模型裁判两类评估栈。
- 基准越来越过程感知:VTC-Bench(工具链轨迹)、CCTU(逐步约束反馈)、SWE-Skills-Bench(仓库固定测试)、TrinityGuard(分层 MAS 风险)都衡量中间正确性/合规性,而不仅是最终答案。
- 安全–效用权衡正在表征层面被攻克:TBOP 声称同时降低 ASR 并提升效用;方向性平滑展示出优于各向同性噪声的权衡曲线。
- 轨迹效应与提示效应同等重要:智能体压力与 TTRL 放大都表明,随时间发生的变化(约束收紧;测试时更新)即使没有经典越狱提示也能翻转安全行为。
- Token 预算是一等约束:SmartSearch 将排序+截断视为瓶颈;AdaAnchor 相比显式 CoT 将输出 token 减少约 90%+;OpenSeeker 用去噪历史训练教师、而学生在原始历史上训练。
- 对抗思维正从“提示注入”转向“系统操控”:视觉 TOCTOU/截图替换;评估器区分;多智能体传播风险;测试时学习流投毒(HarmInject)。
- 角色分离用于防止串谋并提升质量:Code-A1 分离 Code LLM 与 Test LLM;SAGE 分离 Challenger/Planner/Solver/Critic;PMAx 分离 Engineer 与 Analyst。
4) Top 5 论文(含“为何是现在”)
- 形式化了 CUA 特有漏洞:当感知错误时,同一个 click(x,y) 可授权不同语义(e_perceived ≠ e_actual)。
- 展示了一个简单利用(ScreenSwap 像素替换),将常规误点武器化为权限提升。
- 提出一种智能体外部双通道护栏(视觉裁剪 + 推理文本),并用 OR-否决融合;展示检测提升(例如融合后 ScreenSpot-Pro F1 0.915)。
- 持怀疑态度之处:单步裁剪+推理检查会漏掉输入内容危害与多步“安全点击”序列;依赖精心构建的 KB,且未建模对嵌入的对抗规避。
- 识别模态诱发的特征偏移,并在推理时通过 SVD 得到的干扰子空间投影将其移除。
- 报告 ASR 大幅下降且效用提升(例如 LLaVA-7B MMSB ASR 38.86%→5.09%,MM-Vet 41.91→43.98)。
- 单次前向、低开销;在其设置中报告比 ETA 快约 ~60×。
- 持怀疑态度之处:依赖锚点集合构成与秩 k;对纯文本越狱不够直接;超出所研究架构的通用性仍待验证。
3) CCTU: A Benchmark for Tool Use under Complex Constraints(CCTU:复杂约束下工具使用基准)
- 用可执行验证器与轨迹中反馈使约束合规可测量。
- 显示“完美解”罕见:所有评估模型 PSR < 20%;总体违规 > 50%,尤其是资源/响应约束。
- 强调“思考模式”可能引入过度思考相关失败。
- 持怀疑态度之处:仅 200 个样例且来自 FTRL;分类体系不完备;验证器生成需要人工校准。
4) TrinityGuard: A Unified Framework for Safeguarding Multi-Agent Systems(TrinityGuard:多智能体系统防护的统一框架)
- 提供平台无关的 MAS 抽象 + 干预层 + 覆盖 20 类风险(3 个层级)的安全评估模块。
- 实证发现对 300 个合成工作流通过率很低(总体 7.1%;Tier 3 仅 1.3%)。
- 结合部署前测试、运行时监控与基于事件流的来源归因。
- 持怀疑态度之处:高度依赖 LLM 裁判;主要是诊断性(尚无自动化修复)。
- 表明使用多数投票伪标签的测试时 RL 可能根据注入提示混合而放大有害性或安全性,并常常带来“推理税”。
- 引入 HarmInject:在同一提示中配对越狱 + 推理,将推理奖励绑定到有害输出;简单的数字标签过滤会被绕过。
- 与任何考虑自我改进/无标签 TTT 的部署直接相关。
- 持怀疑态度之处:分析特定于多数投票 TTRL;更广泛的 TTT 家族与更强缓解措施仍待探索。
5) 实用下一步
- 对 计算机使用型智能体,增加外部的执行前授权层:用否决逻辑验证点击目标语义(基于裁剪)+ 意图(基于推理);显式建模 screenshot() 与 click() 之间的 TOCTOU。
- 构建 序列级 的单动作护栏扩展:跨多步计划跟踪有状态风险(例如多个“安全点击”组合成不安全结果),因为多篇论文指出单步限制。
- 部署 多模态模型 时,并排测试推理时防御:特征投影(TBOP 风格)vs 嵌入平滑(方向性 RESTA),并在你自己的提示/图像分布下同时衡量 ASR 与效用。
- 将 测试时训练/自我改进 视为攻击面:隔离或过滤更新流;在启用任何在线自适应前运行红队混合(包括 HarmInject 类复合)。
- 将评估从“成功率”升级为 完美合规 与 逐轮进展:在 CI 中引入可执行约束验证器(CCTU 类)与轮次感知进展指标(TED 类)。
- 对 多智能体系统,采用分层风险测试 + 运行时事件流(TrinityGuard 类),并显式测试传播/冒充/记忆投毒场景。
- 对 监控,假设失败往往不可见:增加对漂移/置信陷阱的主动检测器,并跟踪“静默不匹配”模式,而不是依赖用户投诉。
- 对 治理,考虑按设计支持监督的架构:第三方水印验证工作流(参考采样 + 代理检验)与用于遗忘的按设计删除记忆库。
由逐篇论文分析生成;未进行外部浏览。
