2026年5月17日 AI 研究简报
智能体评估变得更严苛了。
今天的论文显示,评估正从静态基准胜利转向自适应攻击、过程感知的可靠性指标,以及更真实的工具环境,而这些都暴露出自主性与安全性方面的巨大差距。
核心要点
- 自适应、推理时攻击者正变得更强:[Metis](https://arxiv.org/abs/2605.10067v1) 将越狱重构为在线策略优化,并报告了高攻击成功率和显著的 token 效率提升,这表明静态红队测试正越来越过时。
- 一个反复出现的防御模式正在形成:从单一分数评估转向结构化、过程感知的诊断。这体现在一致性测试、生存分析式越狱分析、安全违规评分、部署前临床检查,以及 RAG 的源级解释中。
- 基准测试正转向更真实的环境:有状态工具生态、可执行 oracle 的逆向工程、以发现为中心的渗透测试、事件驱动协作,以及 assay 级生物学排序,这些都暴露出当前智能体与人类或 oracle 上限之间的巨大差距。
#1
主题
值得优先阅读的论文
按研究价值排序:新意、方法可复用性、证据质量,以及是否值得带着怀疑去读。
ComplexMCP: Evaluation of LLM Agents in Dynamic, Interdependent, and Large-Scale Tool Sandbox
#1这是一个很强的真实智能体失效模式基准:它包含有状态工具、扰动和可执行评估,而不是静态任务打分。
- 为什么现在值得读
- MCP 风格的工具生态正成为真实的部署基础设施,因此现实化的智能体评估现在就很重要。
- 怀疑点
- 只有 47 条指令和一个人工策划的 sandbox,可能低估开放式生产环境中的变异性。
Metis: Learning to Jailbreak LLMs via Self-Evolving Metacognitive Policy Optimization
#2值得打开看,因为它给出了一个明确警告:自适应攻击者可以学会高效的越狱策略,而不只是依赖 prompt 技巧。
- 为什么现在值得读
- 前沿安全评估仍然高度依赖静态攻击套件,而这篇论文正面挑战了这一点。
- 怀疑点
- 论文报告的提升依赖强攻击者和评估器模型,因此在黑盒场景中的实用性可能会有所不同。
Consistency as a Testable Property: Statistical Methods to Evaluate AI Agent Reliability
#3它提供了一个可复用的统计框架,用于衡量智能体行为在保持语义不变的扰动下是否仍然稳定。
- 为什么现在值得读
- 在部署工具使用型智能体之前,团队需要比通过率更有信息量的可靠性指标。
- 怀疑点
- 结果取决于扰动设计,以及对什么算作语义等价行为的假设。
运行统计
- 候选论文: 6176
- 入选论文: 30
- 已精读完成: 30
- 时间窗口 (UTC): 2026-05-15T00:00:00Z → 2026-05-16T00:00:00Z (weekend_backlog_unknown, expanded=0)
展开查看用于总结的论文列表
| arXiv ID | 标题 / 链接 | 分类 | 评分 | 入选理由 | 标签 |
|---|---|---|---|---|---|
2605.10067 | Metis: Learning to Jailbreak LLMs via Self-Evolving Metacognitive Policy Optimization | cs.LG, cs.AI | 95 | Automated LLM jailbreak framework with strong evals across 10 models; highly relevant for red-teaming safety. | llm-safety, jailbreak, red-teaming, policy-optimization, adversarial-evaluation |
2605.10787 | ComplexMCP: Evaluation of LLM Agents in Dynamic, Interdependent, and Large-Scale Tool Sandbox | cs.AI, cs.SE | 95 | Large-scale benchmark for LLM agents in dynamic, stateful tool sandboxes with failures; highly reusable. | llm-agents, benchmark, tool-use, evaluation, sandbox, mcp, rag |
2605.10834 | From Controlled to the Wild: Evaluation of Pentesting Agents for the Real-World | cs.AI, cs.CR | 93 | Real-world pentesting agent eval via validated vuln discovery; highly relevant to agent security. | agents, security, evaluation, red-teaming, pentesting |
2605.10516 | Consistency as a Testable Property: Statistical Methods to Evaluate AI Agent Reliability | cs.AI | 93 | Rigorous statistical framework for agent reliability under perturbations; highly reusable for safety evals. | agent-reliability, evaluation, robustness, consistency, safety |
2605.10253 | Knowledge Poisoning Attacks on Medical Multi-Modal Retrieval-Augmented Generation | cs.CR, cs.AI | 92 | Targets practical knowledge-poisoning risks in medical multimodal RAG without assuming query knowledge. | rag, security, poisoning, multimodal, medical-ai, reliability, adversarial |
2605.13357 | AI Harness Engineering: A Runtime Substrate for Foundation-Model Software Agents | cs.SE, cs.AI | 92 | Runtime substrate for software agents with permissions, auditing, verification, and intervention design. | agents, agent-safety, software-engineering, runtime, permissions, auditing, verification |
2605.13817 | Neurosymbolic Auditing of Natural-Language Software Requirements | cs.SE, cs.AI | 92 | Neurosymbolic auditing for safety-critical requirements; concrete solver-backed checks and ambiguity signals. | safety, auditing, neurosymbolic, verification, requirements |
2605.10907 | Engineering Robustness into Personal Agents with the AI Workflow Store | cs.CR, cs.AI | 91 | Argues for software-engineering discipline and hardened workflows for personal agents; strong agent robustness angle. | agents, agent-safety, robustness, software-engineering, deployment |
2605.13213 | Hierarchical Attacks for Multi-Modal Multi-Agent Reasoning | cs.AI | 91 | Targets multimodal multi-agent vulnerabilities with hierarchical attacks; strong relevance to agent security. | multi-agent, multimodal, adversarial-attacks, agent-security, red-teaming |
2605.10832 | Towards On-Policy Data Evolution for Visual-Native Multimodal Deep Search Agents | cs.CL | 91 | Visual-native search-agent harness plus on-policy data evolution for multimodal tool use. | agents, multimodal, tool-use, training-data, search, llm |
2605.10698 | The Bystander Effect in Multi-Agent Reasoning: Quantifying Cognitive Loafing in Collaborative Interactions | cs.MA, cs.AI | 90 | Studies failure modes in multi-agent LLM reasoning; cognitive loafing insight could reshape MAS design. | multi-agent, reasoning, evaluation, failure-modes, llm-agents |
2605.10194 | TRACE: Distilling Where It Matters via Token-Routed Self On-Policy Alignment | cs.AI, cs.LG | 90 | Targeted on-policy alignment for reasoning LLMs; addresses leakage and long-horizon degradation. | alignment, RLVR, reasoning, distillation, LLM-training |
2605.12850 | Persona-Model Collapse in Emergent Misalignment | cs.CL, cs.AI, cs.CR, cs.LG | 89 | Studies emergent misalignment in frontier models with new persona-collapse hypothesis and metrics. | alignment, misalignment, llm-safety, evaluation, personas, behavior |
2605.12869 | Quantifying LLM Safety Degradation Under Repeated Attacks Using Survival Analysis | cs.CR, cs.AI | 89 | Introduces survival-analysis view of jailbreak robustness under repeated attacks; useful safety metric. | llm-safety, jailbreaks, evaluation, robustness, harmbench |
2605.10862 | RUBEN: Rule-Based Explanations for Retrieval-Augmented LLM Systems | cs.CL | 89 | Rule-based explanations for RAG outputs with direct use in prompt-injection and safety resilience testing. | RAG, interpretability, prompt-injection, safety-evaluation, adversarial-testing |
2605.10600 | Generate "Normal", Edit Poisoned: Branding Injection via Hint Embedding in Image Editing | cs.CR | 89 | Concrete generative-model security risk: hidden branding injection across image editing workflows. | security, generative-models, image-editing, poisoning, adversarial, multimodal |
2605.13172 | When Does Hierarchy Help? Benchmarking Agent Coordination in Event-Driven Industrial Scheduling | cs.MA, cs.AI | 88 | Benchmark for hierarchical multi-agent coordination in dynamic settings; useful for evaluating agentic failure modes. | agents, multi-agent, benchmark, coordination, evaluation |
2605.10386 | GuardAD: Safeguarding Autonomous Driving MLLMs via Markovian Safety Logic | cs.AI | 88 | Model-agnostic safety guard for autonomous-driving MLLMs using temporal logic over dynamic scenes. | multimodal-llm, safeguards, autonomous-driving, neuro-symbolic, safety |
2605.10141 | FormalRewardBench: A Benchmark for Formal Theorem Proving Reward Models | cs.AI | 88 | Useful benchmark for reward models in formal theorem proving, a key RLVR/alignment setting. | benchmark, reward-models, formal-reasoning, RLVR, evaluation |
2605.12857 | ChipMATE: Multi-Agent Training via Reinforcement Learning for Enhanced RTL Generation | cs.MA, cs.AI, cs.AR, cs.LG | 88 | Multi-agent self-training for RTL generation; notable agentic workflow with industrial security constraints. | agents, code-generation, reinforcement-learning, verification, industrial-ai |
2605.10357 | RW-Post: Auditable Evidence-Grounded Multimodal Fact-Checking in the Wild | cs.MM, cs.AI | 87 | Auditable multimodal fact-checking benchmark with evidence links and baseline agent; strong reliability/eval value. | multimodal, fact-checking, benchmark, grounding, evaluation |
2605.10597 | CrackMeBench: Binary Reverse Engineering for Agents | cs.SE, cs.AI | 87 | Benchmark for binary reverse-engineering agents with executable scoring; useful for cyber-agent evaluation. | benchmark, agents, cybersecurity, evaluation, tool-use |
2605.13095 | Watermarking Should Be Treated as a Monitoring Primitive | cs.CR, cs.AI, cs.CY, cs.LG | 87 | Reframes watermarking as monitoring; analyzes observer threats and privacy implications for deployment. | watermarking, monitoring, privacy, security, governance, generative-models |
2605.10876 | AssayBench: An Assay-Level Virtual Cell Benchmark for LLMs and Agents | cs.LG, cs.AI, q-bio.QM | 87 | Benchmark for LLMs/agents on virtual-cell assay prediction; reusable eval for scientific agents. | benchmark, agents, llm, evaluation, biology, scientific-ai |
2605.13045 | Large Language Models Lack Temporal Awareness of Medical Knowledge | cs.LG, cs.CL | 87 | Temporal medical knowledge benchmark exposes reliability gaps in LLMs under evolving facts. | reliability, benchmark, medical-LLM, temporal-reasoning, evaluation |
2605.12895 | RISED: A Pre-Deployment Safety Evaluation Framework for Clinical AI Decision-Support Systems | cs.LG, cs.AI, cs.CY, stat.AP | 86 | Concrete pre-deployment safety eval framework with thresholds/CIs; strong reliability relevance for clinical AI. | ai-safety, evaluation, reliability, clinical-ai, deployment |
2605.10176 | When Prompts Become Payloads: A Framework for Mitigating SQL Injection Attacks in Large Language Model-Driven Applications | cs.CR, cs.AI | 85 | Directly targets prompt-to-SQL injection in LLM apps with a mitigation framework; practical security relevance. | llm-security, sql-injection, prompt-injection, tool-use, defenses |
2605.10267 | IndustryBench: Probing the Industrial Knowledge Boundaries of LLMs | cs.AI | 85 | Industrial benchmark stresses standards compliance and safety-critical contradictions missed by generic QA evals. | benchmark, evaluation, llm-reliability, safety, industrial, standards, qa |
2605.13801 | Improving Reproducibility in Evaluation through Multi-Level Annotator Modeling | cs.LG, cs.AI | 85 | Addresses reproducibility crisis in LLM evaluation via annotator modeling; broadly useful for safety studies. | evaluation, reproducibility, annotators, llm-evaluation, trustworthiness |
2605.12969 | Revisiting Reinforcement Learning with Verifiable Rewards from a Contrastive Perspective | cs.LG, cs.AI | 85 | Analyzes RLVR/GRPO limits and proposes a contrastive view for improving verifiable-reward LLM training. | LLMs, reasoning, RLVR, GRPO, post-training, alignment |
AI 论文洞察简报
2026-05-17
0) 执行要点(先读这个)
- 自适应、推理时攻击者正变得更强:Metis 将越狱重构为在线策略优化,并报告了高攻击成功率和显著的 token 效率提升,这表明静态红队测试正越来越过时。
- 一个反复出现的防御模式正在形成:从单一分数评估转向结构化、过程感知的诊断。这体现在一致性测试、生存分析式越狱分析、安全违规评分、部署前临床检查,以及 RAG 的源级解释中。
- 基准测试正转向更真实的环境:有状态工具生态、可执行 oracle 的逆向工程、以发现为中心的渗透测试、事件驱动协作,以及 assay 级生物学排序,这些都暴露出当前智能体与人类或 oracle 上限之间的巨大差距。
- 多篇论文表明,更多推理或更多智能体并不自动意味着更安全或更好:thinking mode 可能增加工业问答中的安全违规;全 token 自蒸馏会破坏长程推理稳定性;多智能体设置可能诱发从众失败,或成为攻击放大器。
- 检索与多模态系统仍是主要安全薄弱点:医学多模态 RAG 投毒、prompt-to-SQL 注入、RAG 源组合利用,以及多模态多智能体攻击都表明,上游上下文和中间产物仍缺乏足够防护。
- 跨论文来看,最强的实用方向是定向干预:只将监督路由到关键 token、加固工作流而不是即兴规划、审计精确检索源,并在保持语义不变但施压执行过程的扰动下评估系统。
2) 关键主题(聚类)
主题:自适应攻击正在超过静态防御
- 为什么重要:攻击者正从 prompt 技巧转向对模型行为、检索状态和多智能体通信进行闭环优化。这提高了红队测试门槛,也使静态防御或一次性评估的信息价值下降。
- 代表论文:
- Metis: Learning to Jailbreak LLMs via Self-Evolving Metacognitive Policy Optimization
- Knowledge Poisoning Attacks on Medical Multi-Modal Retrieval-Augmented Generation
- Hierarchical Attacks for Multi-Modal Multi-Agent Reasoning
- When Prompts Become Payloads: A Framework for Mitigating SQL Injection Attacks in Large Language Model-Driven Applications
- 共同方法:
- 将目标视为自适应且部分可观测,而不是固定对象。
- 同时攻击多个层面:检索、推理、通信或下游执行。
- 优化目标不仅是单个 prompt 上的原始成功率,还包括隐蔽性和迁移性。
- 衡量 token、查询次数或投毒预算等操作成本。
- 开放问题 / 失效模式:
- 许多最强攻击依赖强大的评估器、编辑器或攻击者骨干模型。
- 防御评估通常仅限于简单过滤器或受限测试环境。
- 已展示与查询无关的投毒和多智能体攻击,但稳健缓解手段仍然不足。
- 黑盒实用性正在提升,这削弱了“靠模糊性保安全”能够成立的假设。
主题:评估正变得过程感知,而不只是结果感知
- 为什么重要:准确率或 pass@1 往往掩盖真实失效模式。新工作开始测量扰动下稳定性、失效时间、安全矛盾、子群体差距和源级因果性,这对部署决策更有用。
- 代表论文:
- Consistency as a Testable Property: Statistical Methods to Evaluate AI Agent Reliability
- Quantifying LLM Safety Degradation Under Repeated Attacks Using Survival Analysis
- IndustryBench: Probing the Industrial Knowledge Boundaries of LLMs
- RISED: A Pre-Deployment Safety Evaluation Framework for Clinical AI Decision-Support Systems
- 共同方法:
- 用多维指标和统计检验替代单一汇总分数。
- 在保持语义的扰动或重复试验下进行评估。
- 将原始正确性与安全违规或阈值翻转等操作上重要的失效类别区分开来。
- 使用置信区间、假设检验或删失事件分析来支持决策。
- 开放问题 / 失效模式:
- 许多方法依赖于对扰动有效性或评审器质量的假设。
- 更丰富的指标会增加评估成本和复杂度。
- 一些框架只在较小的模型/任务集合上展示,限制了泛化性。
- 过程指标可以诊断失败,但本身并不直接提供修复方案。
主题:真实智能体基准正在暴露巨大的自主性差距
- 为什么重要:随着基准更接近真实工作流——有状态工具、二进制程序、渗透测试目标、工业调度——演示级能力与可靠自主性之间的差距变得更清晰。
- 代表论文:
- ComplexMCP: Evaluation of LLM Agents in Dynamic, Interdependent, and Large-Scale Tool Sandbox
- CrackMeBench: Binary Reverse Engineering for Agents
- From Controlled to the Wild: Evaluation of Pentesting Agents for the Real-World
- When Does Hierarchy Help? Benchmarking Agent Coordination in Event-Driven Industrial Scheduling
- 共同方法:
- 使用可执行或 state-diff oracle,而不只是文本评分。
- 强调长时程协作、有状态性,以及从运行时失败中恢复。
- 记录轨迹、成本、重复项和失败标签以便诊断。
- 在固定环境基底下比较不同架构或协作协议。
- 开放问题 / 失效模式:
- 当前任务集仍相对较小且经过人工策划。
- 结果可能对 harness、工具检索或编排选择敏感。
- 在某些场景中,人类基线仍遥遥领先。
- 基准暴露失效模式的速度快于方法解决它们的速度。
主题:定向监督优于一刀切干预
- 为什么重要:多篇论文认为,到处施加监督或蒸馏既浪费又可能破坏稳定性。更好的结果来自将干预定位到决定性 token、精确源组合或加固后的工作流。
- 代表论文:
- TRACE: Distilling Where It Matters via Token-Routed Self On-Policy Alignment
- Revisiting Reinforcement Learning with Verifiable Rewards from a Contrastive Perspective
- RUBEN: Rule-Based Explanations for Retrieval-Augmented LLM Systems
- AI Harness Engineering: A Runtime Substrate for Foundation-Model Software Agents
- 共同方法:
- 将优化聚焦于关键片段、困难负样本或最小因果源集合。
- 让训练目标与推理时行为对齐,而不是依赖代理 token 分数。
- 增加运行时结构,产出可验证证据,而不是依赖自由形式推理。
- 使用稀疏、可解释的干预,而不是全局 KL 或无约束规划。
- 开放问题 / 失效模式:
- 这些方法通常依赖标注者、评审器或精心设计的 harness。
- 超越数学或特定 RAG 场景的泛化能力仍未明确。
- 稀疏干预可能漏掉分散型失效模式。
- 与更简单的基线相比,工程开销可能相当大。
主题:多模态和领域专用系统在真实条件下仍然脆弱
- 为什么重要:在医疗、驾驶、事实核查、生物学和工业问答中,领域真实性暴露了通用基准看不到的失败——时间漂移、安全矛盾、视觉落地薄弱,以及与实用上限之间的巨大差距。
- 代表论文:
- 共同方法:
- 从真实工件构建基准:指南、社交帖子、CRISPR 筛选、驾驶场景。
- 加入领域落地的评估标准,如时间有效性、事故率、证据使用或排序质量。
- 将前沿 LLM 与更强的经验上限或人类基线比较。
- 使用结构化上下文或符号约束来提升可靠性。
- 开放问题 / 失效模式:
- 检索和工具只能部分修复领域失效。
- 视觉信息的帮助往往低于预期,甚至可能有害。
- 若干案例中的基准在模态或地域上仍较狭窄。
- 强闭源模型领先,但仍留下显著提升空间。
3) 技术综合
- 多篇论文都收敛到一个观点:正确的分析单元不是最终答案,而是轨迹:TRACE 中的 token 片段、生存分析中的重复尝试、一致性测试中的动作序列,以及 ComplexMCP 中的 state diff。
- 评估正越来越明确地区分能力与可靠性:IndustryBench 将原始正确性与安全违规分开;RISED 将区分能力与可部署性及子群体稳定性分开;渗透测试评估则区分发现、重复项、严重性和成本。
- 一些方法用结构化优化替代启发式搜索:Metis 在 POMDP 循环中使用语义梯度反馈;ConSPO 使用分组对比评分;TRACE 按 token 类别在有限暴露下路由 KL。
- 评审器质量是反复出现的瓶颈。这在 Metis、FormalRewardBench、RW-Post、渗透测试匹配,以及 RISED 风格决策规则中都有明确体现。
- 真实基准越来越多地使用可执行或形式化 oracle:Lean 类型检查、二进制接受 oracle、SMT 可满足性、state-diff 评估器,以及隐藏 keygen 验证。
- 检索既是能力增强器,也是脆弱性表面:医学 RAG 投毒、RUBEN 的源级利用发现、RW-Post 的证据约束收益,以及 TempoMed 中 RAG 的有限改进,都表明检索质量和源控制是核心问题。
- 更多推理并不总是有益:thinking mode 在大多数模型上恶化了经安全调整后的工业问答表现;全 token 自蒸馏导致崩溃症状;多智能体共识可能诱发从众,而不是更好的推理。
- 领域专用的真实性常常揭示前沿模型距离可操作上限仍很远:AssayBench 中与 oracle kNN 的差距、ComplexMCP 中与人类的差距,以及 TempoMed 中较弱的历史回忆能力都是例子。
- 多篇论文主张使用有边界、可审计的干预层,而不是端到端重训练:GuardAD 的事后逻辑修正、SQLi 分层过滤、workflow store,以及 harness engineering 都符合这一模式。
- 一个常见失效模式是隐藏耦合:标注者与 p 值之间、水印密钥与监控之间、工具依赖与智能体失败之间,以及 persona 条件化与涌现失配之间的耦合。
4) Top 5 论文(附“为什么是现在”)
- Metis: Learning to Jailbreak LLMs via Self-Evolving Metacognitive Policy Optimization
- 将越狱重构为对抗性 POMDP 中的推理时策略优化,而不是静态 prompt 搜索。
- 报告在 10 个目标模型上平均 89.2% 的 ASR,包括在强韧前沿目标上的强表现。
- 声称具有显著效率提升,平均 token 成本降低 8.2×,相较 X-Teaming 最高可达 11.4×。
- 为什么是现在:它表明自适应红队测试正变得更便宜、可迁移性更强,这会直接影响前沿模型评估与部署。
- 保留意见:性能对评估器质量高度敏感,并且使用了强攻击者/评估器骨干模型。
- TRACE: Distilling Where It Matters via Token-Routed Self On-Policy Alignment
- 识别出全 token 自蒸馏在长时程推理中的一个具体失效模式:熵上升、响应缩短和验证崩溃。
- 将 5 个基准的平均分从 78.75 提升到 81.51,并在基线退化的情况下保持了 GPQA-Diamond 表现。
- 表明最佳路由动作取决于基础能力,较弱模型会从不同的 token 类别处理方式中受益。
- 为什么是现在:许多实验室正在大规模使用自蒸馏和 RLVR;这篇论文给出了一种更“外科手术式”的方案,看起来更稳定。
- 保留意见:证据主要集中在数学 RLVR 上,并依赖标注者质量。
- ComplexMCP: Evaluation of LLM Agents in Dynamic, Interdependent, and Large-Scale Tool Sandbox
- 引入了一个大型、MCP 原生基准,包含 300 多个工具、有状态应用、确定性扰动和 state-diff 评估。
- 报告中最佳模型达到 55.31% 成功率,而人类基线为 93.61%。
- 揭示了具体失效模式,如工具检索饱和、清空重来式过度自信,以及策略性放弃。
- 为什么是现在:MCP 风格工具生态正成为生产基础设施,而这个基准测试的正是团队开始实际遇到的失效模式。
- 保留意见:任务集仍是人工策划的,且仅限于 47 条指令。
- IndustryBench: Probing the Industrial Knowledge Boundaries of LLMs
- 构建了一个包含 2,049 个条目的、以标准为基础的基准,并带有外部验证和单独的安全违规调整。
- 显示在构建过程中,基于搜索的验证拒绝了 70.3% 看似合理的 LLM 生成候选项。
- 发现 thinking mode 会降低 13 个模型中 12 个的经安全调整后的分数。
- 为什么是现在:这是一个强有力例子,说明在标准密集型领域,“更多推理”反而可能恶化部署安全。
- 保留意见:范围主要集中于中国 GB/T 标准,且采用闭卷评估。
- Large Language Models Lack Temporal Awareness of Medical Knowledge
- 引入 TempoMed-Bench,包含来自 3,411 条指南演化轨迹的 721 道时间锚定选择题。
- 显示面向历史目标的准确率仅为最新知识准确率的 25.37%–53.89%。
- 发现 agentic RAG 仅带来混合收益,从 -3.15% 到 +14.14% 不等。
- 为什么是现在:时间有效性是医疗助手部署中的真实问题,而标准医学问答基准大多忽略了这一点。
- 保留意见:基准规模适中,轨迹覆盖受限于可获得的全文资料。
5) 实际下一步
- 将红队测试从静态 prompt 套件升级为自适应、多轮攻击者循环;同时跟踪 ASR 和 token/查询成本,而不只是成功率。
- 在智能体栈中加入过程级评估:扰动一致性、轨迹漂移、重复攻击生存曲线,以及 state-diff 审计。
- 对于 RLVR 和推理训练,在施加全 token KL 或广泛自蒸馏之前,先测试局部化监督方案。
- 在 RAG 系统中,对精确源归因和最小源集合解释进行埋点;用它来审计不安全输出和 prompt 注入路径。
- 将检索语料库和中间产物视为攻击面:加入来源控制、投毒检查,以及针对多模态知识库的防御。
- 对使用工具的智能体,在有状态、易失败环境中做基准测试,并记录恢复行为,而不只是最终任务完成情况。
- 对于高风险领域,将原始正确性与安全关键矛盾、子群体差距、时间有效性和阈值敏感性分开评估。
- 对敏感操作优先采用加固后的工作流或 harness;要求可审计轨迹、显式验证步骤,以及有边界的调用包络。
基于逐篇论文分析生成;未进行外部浏览。