AI 论文日报(2026-04-30)
Published:
English version: /paper-news/2026-04-30/
运行统计
- 候选论文: 211
- 入选论文: 30
- 已精读完成: 30
- 时间窗口 (UTC): 2026-04-28T00:00:00Z → 2026-04-29T00:00:00Z (arxiv_announce, expanded=0)
展开查看用于总结的论文列表
| arXiv ID | 标题 / 链接 | 分类 | 评分 | 入选理由 | 标签 |
|---|---|---|---|---|---|
2604.25891 | Conditional misalignment: common interventions can hide emergent misalignment behind contextual triggers | cs.LG, cs.AI, cs.CR | 95 | Shows safety fixes can mask emergent misalignment behind context triggers; high alignment relevance. | alignment, emergent-misalignment, evaluation, robustness, safety |
2604.25077 | Evaluating Risks in Weak-to-Strong Alignment: A Bias-Variance Perspective | cs.AI | 94 | Analyzes weak-to-strong alignment failure via confidence/uncertainty; directly relevant to scalable oversight. | alignment, weak-to-strong, scalable-oversight, uncertainty, evaluation |
2604.25109 | Structured Security Auditing and Robustness Enhancement for Untrusted Agent Skills | cs.CR, cs.AI | 93 | Robust auditing of untrusted agent skills with benchmark and held-out results; directly agent-security relevant. | agents, security, auditing, guardrails, benchmark |
2604.25419 | JURY-RL: Votes Propose, Proofs Dispose for Label-Free RLVR | cs.AI | 92 | Label-free RLVR with formal verification in Lean; promising for reliable reasoning post-training. | rlvr, reasoning, formal-verification, post-training, alignment |
2604.25345 | Plausible but Wrong: A case study on Agentic Failures in Astrophysical Workflows | cs.AI, astro-ph.IM | 92 | Agentic workflow eval reveals silent failures and poor self-diagnosis in scientific tasks. | agents, safety, evaluation, scientific-ai, reliability |
2604.25562 | SnapGuard: Lightweight Prompt Injection Detection for Screenshot-Based Web Agents | cs.CR, cs.AI | 91 | Targets prompt injection for screenshot-based web agents, a practical and under-defended agent threat. | agents, prompt-injection, web-agents, multimodal, security |
2604.25256 | AutoResearchBench: Benchmarking AI Agents on Complex Scientific Literature Discovery | cs.AI | 91 | Benchmark for agentic scientific literature discovery; realistic multi-step retrieval tasks with broad reuse. | agents, benchmark, literature-discovery, evaluation, scientific-research |
2604.25119 | Evaluation without Generation: Non-Generative Assessment of Harmful Model Specialization with Applications to CSAM | cs.LG, cs.CY | 90 | Audits harmful specialization without generation; important for scalable governance of open-weight models. | model-auditing, safety-evaluation, governance, open-weights, representation-analysis |
2604.25578 | Marco-MoE: Open Multilingual Mixture-of-Expert Language Models with Efficient Upcycling | cs.CL, cs.AI | 90 | Open multilingual MoE with strong compute-efficiency claims and broad frontier LLM relevance. | llm, moe, multilingual, efficiency, open-models |
2604.25110 | Knowledge Distillation Must Account for What It Loses | cs.LG, cs.AI | 89 | Important distillation safety framing: off-metric losses in uncertainty, privacy, safety, grounding, reliability. | distillation, safety, reliability, evaluation, uncertainty, privacy |
2604.25235 | VLM Judges Can Rank but Cannot 评分: Task-Dependent Uncertainty in Multimodal Evaluation | cs.LG, cs.CL, cs.CV, stat.ML | 89 | Calibrates VLM-as-a-judge uncertainty; strong relevance for trustworthy multimodal evaluation. | multimodal, evaluation, uncertainty, calibration, vlm-judge |
2604.25716 | Cross-Lingual Jailbreak Detection via Semantic Codebooks | cs.CL, cs.AI | 88 | Addresses multilingual jailbreak gaps with training-free detection; useful black-box safety guardrail. | jailbreak, multilingual, guardrails, black-box, safety |
2604.25917 | Recursive Multi-Agent Systems | cs.AI, cs.CL, cs.LG | 88 | Extends recursive scaling to multi-agent systems; potentially important for agent capability and risk. | agents, multi-agent, reasoning, recursive-models, scaling |
2604.25580 | Bye Bye Perspective API: Lessons for Measurement Infrastructure in NLP, CSS and LLM Evaluation | cs.CL | 87 | Timely critique of brittle toxicity-eval dependence; strong implications for reproducibility and safety measurement. | evaluation, toxicity, measurement, reproducibility, safety-metrics |
2604.25642 | Prefill-Time Intervention for Mitigating Hallucination in Large Vision-Language Models | cs.CV, cs.AI | 87 | Targets LVLM hallucination via prefill-time intervention; concrete reliability improvement angle. | vlm, hallucination, reliability, steering, multimodal |
2604.25189 | AgentDID: Trustless Identity Authentication for AI Agents | cs.CR | 87 | Targets trustless identity/authentication for AI agents, a key agent security building block. | agents, security, identity, authentication, infrastructure |
2604.25203 | BARRED: Synthetic Training of Custom Policy Guardrails via Asymmetric Debate | cs.CL, cs.AI, cs.LG | 86 | Synthetic data framework for custom policy guardrails via debate; practical for deployable safety systems. | guardrails, policy, synthetic-data, debate, classification |
2604.25135 | FAMA: Failure-Aware Meta-Agentic Framework for Open-Source LLMs in Interactive Tool Use Environments | cs.CL | 85 | Failure-aware meta-agent framework targets cascading tool-use errors in open-source LLM agents. | agents, tool-use, reliability, open-source-llms, failure-analysis |
2604.25846 | Towards Agentic Investigation of Security Alerts | cs.CR, cs.AI | 85 | Agentic security-alert investigation with constrained tools; practical agent safety/security deployment setting. | agent-safety, security, tool-use, cybersecurity, evaluation |
2604.25313 | Faithfulness-QA: A Counterfactual Entity Substitution Dataset for Training Context-Faithful RAG Models | cs.CL, cs.AI | 84 | Large counterfactual dataset for context-faithful RAG, directly targeting retrieval faithfulness failures. | RAG, faithfulness, dataset, hallucination, grounding |
2604.25872 | When Errors Can Be Beneficial: A Categorization of Imperfect Rewards for Policy Gradient | cs.LG, cs.AI, stat.ML | 84 | Theoretical insight on imperfect proxy rewards in policy gradient, relevant to RLHF-style alignment. | alignment, rlhf, reward-modeling, policy-gradient, theory |
2604.25167 | From Insight to Action: A Novel Framework for Interpretability-Guided Data Selection in Large Language Models | cs.AI | 84 | Uses interpretability signals to guide LLM data selection; actionable mech-interp direction. | llm, interpretability, data-selection, mechanistic-interpretability, training |
2604.25855 | SIEVES: Selective Prediction Generalizes through Visual Evidence Scoring | cs.CV, cs.AI | 83 | Selective prediction for MLLMs using visual evidence scoring; useful for abstention and OOD reliability. | multimodal, selective-prediction, ood, reliability, evaluation |
2604.25161 | Where Did It Go Wrong? Capability-Oriented Failure Attribution for Vision-and-Language Navigation Agents | cs.MA, cs.AI | 83 | Capability-level failure attribution for embodied VLM agents improves diagnosis and testing. | agents, evaluation, failure-analysis, embodied-ai, vln |
2604.25555 | From CRUD to Autonomous Agents: Formal Validation and Zero-Trust Security for Semantic Gateways in AI-Native Enterprise Systems | cs.CR, cs.AI | 82 | Formal validation and zero-trust MCP gateway for enterprise agents; promising systems-security direction. | agents, MCP, zero-trust, formal-validation, enterprise-security |
2604.25249 | Below-Chance Blindness: Prompted Underperformance in Small LLMs Produces Positional Bias Rather than Answer Avoidance | cs.CL, cs.AI | 82 | Directly studies sandbagging detection in LLMs; negative result is useful for AI safety evaluation design. | ai-safety, sandbagging, evaluation, deception, benchmarking |
2604.25724 | Scalable Inference Architectures for Compound AI Systems: A Production Deployment Study | cs.AI | 81 | Production study of inference architecture for compound AI agents; high practical relevance for deployment. | agents, systems, inference, deployment, compound-ai |
2604.25088 | Cooperate to Compete: Strategic Coordination in Multi-Agent Conquest | cs.AI, cs.CL | 81 | New mixed-motive multi-agent benchmark probes negotiation, cooperation, and strategic behavior. | multi-agent, benchmark, agents, evaluation, strategic-behavior |
2604.25757 | Threat-Oriented Digital Twinning for Security Evaluation of Autonomous Platforms | cs.CR, cs.AI, cs.RO, eess.SY | 80 | Open threat-oriented digital twinning methodology for evaluating secure autonomy under adversarial conditions. | security-evaluation, autonomy, digital-twin, red-teaming, methodology |
2604.25359 | The Structured Output Benchmark: A Multi-Source Benchmark for Evaluating Structured Output Quality in Large Language Models | cs.CL, cs.AI | 80 | Structured-output benchmark spans text, image, audio; useful for deployment reliability beyond schema compliance. | benchmark, structured-output, reliability, multimodal, evaluation |
AI 论文洞察简报
2026-04-30
0) 执行要点(请先阅读)
- 今天一个强烈的主题是,许多安全失败如今被理解为测量失败:弱到强对齐可能掩盖盲点,VLM 评审器可以排序却无法可靠打分,而常见的后训练缓解方法可能只是把失配隐藏在上下文触发器之后,而不是将其消除。
- 多篇论文推动采用可观测、外部化或结构感知的防护措施,而不是只信任模型内部机制:包级技能审计、非生成式 LoRA 筛查、截图提示注入检测、语义码本越狱过滤,以及去中心化的智能体身份/状态验证。
- 对于智能体,领域关注点正从“它们能否行动?”转向它们在长时程、多步骤设置中如何失败:混合动机场景中的谈判/欺骗、具备失败感知的工具使用编排、具身导航中的能力级归因,以及科学工作流中的静默失败。
- 一个反复出现的实用模式是因子分解:把难问题拆成结构化子问题——RLVR 中的提议与证明分离、技能审计中的抽取与验证分离、VQA 拒答中的正确性/定位/一致性分离,以及 SOC 分诊中的证据收集与裁决分离。
- 效率工作正越来越多地与安全/可靠性绑定,而不只是成本:预填充阶段的 LVLM 干预、轻量级截图防御、复合系统服务架构,以及潜在递归多智能体系统,都试图在不过度增加运行时开销的前提下提升鲁棒性。
- 基准测试正变得更真实也更严苛:全文科学发现、跨模态结构化输出落地、长时程谈判,以及 OOD VQA 选择性预测,都表明当前前沿系统在完整性、落地性或校准拒答变得重要时仍会严重失效。
2) 关键主题(聚类)
主题:对齐与评估中的隐藏失效模式
- 为什么重要:多篇论文表明,标准的聚合指标可能会漏掉在实际运行中最关键的失败:高置信盲点、触发条件下的失配,以及不可靠的绝对打分。共同结论是,“平均来看没问题”已不再是充分的安全信号。
- 代表论文:
- Evaluating Risks in Weak-to-Strong Alignment: A Bias-Variance Perspective
- Conditional misalignment: common interventions can hide emergent misalignment behind contextual triggers
- VLM Judges Can Rank but Cannot Score: Task-Dependent Uncertainty in Multimodal Evaluation
- Below-Chance Blindness: Prompted Underperformance in Small LLMs Produces Positional Bias Rather than Answer Avoidance
- 共同方法:
- 用与失败结构绑定的诊断替代单一头条指标:盲点欺骗、保形区间、位置分布偏移、触发条件评测。
- 分析置信度/不确定性分布,而不只看准确率。
- 用上下文变体或任务分区对模型施压,以暴露潜在失效模式。
- 用理论解释为什么代理指标会系统性误导。
- 开放问题 / 失效模式:
- 强模型方差和条件触发效应是否能泛化到已测试模型家族和领域之外。
- 如何在大规模下枚举或发现上下文触发器,而不是依赖人工模板。
- 评审器的不确定性区间是否能收窄到足以支持高风险场景下的绝对打分。
- 如何区分刻意的低表现与更简单的启发式行为,例如位置坍缩。
主题:外部护栏与部署前安全筛查
- 为什么重要:今天相当一部分工作都假设你可能无法控制模型权重,或无法安全地生成有害输出。这推动防御转向外部、可审计的过滤器,在部署或执行动作前检查结构、状态或可观测行为。
- 代表论文:
- Structured Security Auditing and Robustness Enhancement for Untrusted Agent Skills
- Evaluation without Generation: Non-Generative Assessment of Harmful Model Specialization with Applications to CSAM
- SnapGuard: Lightweight Prompt Injection Detection for Screenshot-Based Web Agents
- Cross-Lingual Jailbreak Detection via Semantic Codebooks
- 共同方法:
- 使用结构感知表示而不是扁平提示:跨文件包链、激活探针、截图 OCR + 视觉统计、嵌入空间码本。
- 面向部署约束进行优化:低延迟、无需重训练、黑盒兼容,或满足非生成式合法性要求。
- 聚焦具体的运行失效模式,如 malicious→suspicious collapse、提示注入或翻译型越狱。
- 在改写鲁棒性或对抗扰动下评估,而不只是 IID 测试集。
- 开放问题 / 失效模式:
- 在分布偏移下,对自适应攻击者的鲁棒性仍然有限。
- 一些方法依赖带有自身失效模式的辅助组件:OCR、强验证器、多语嵌入器。
- 基准上趋于饱和的性能可能高估了开放世界可用性。
- 静态码本或人工整理的攻击分类法可能落后于不断演化的攻击模式。
主题:长时程、混合动机与工具使用场景中的智能体可靠性
- 为什么重要:智能体失败越来越多地体现在轨迹质量、协作和静默累积错误上,而不只是单次回答质量。今天的论文表明,真实环境会暴露出欺骗、策略违规、上下文漂移,以及“看似合理但实际错误”的输出,而标准基准对此权重不足。
- 代表论文:
- 共同方法:
- 将智能体行为分解为阶段或角色:谈判、辅助智能体选择、证据收集、摘要、裁决。
- 衡量过程级行为,而不只看最终成功:成交率、欺骗、执行跟进、失败类别、延迟/成本开销。
- 使用定向干预而非全面重训练:提示、辅助模块、领域上下文、受限工具。
- 比较人类与模型行为,或比较基线与脚手架式工作流,以隔离收益来源。
- 开放问题 / 失效模式:
- 基于提示的收益未必能迁移到学习得到的策略或对抗环境中。
- 当输出看似合理且工具调用在语法上成功时,静默失败仍然难以检测。
- 在某一环境中达到与人类相当的胜率,并不意味着具备稳健的战略对齐。
- 工具使用脚手架可能提升成功率,但也会增加复杂性、延迟和攻击面。
主题:面向落地性、完整性与拒答的更好基准
- 为什么重要:多篇论文认为,当前评估过于宽松,因为它们奖励格式合规、主题检索或原始答对率,却忽视了落地性、完整性和校准拒答。新基准旨在让这些遗漏变得可见。
- 代表论文:
- AutoResearchBench: Benchmarking AI Agents on Complex Scientific Literature Discovery
- The Structured Output Benchmark: A Multi-Source Benchmark for Evaluating Structured Output Quality in Large Language Models
- SIEVES: Selective Prediction Generalizes through Visual Evidence Scoring
- Where Did It Go Wrong? Capability-Oriented Failure Attribution for Vision-and-Language Navigation Agents
- 共同方法:
- 构建必须依赖全文证据、精确叶子值落地、能力归因,或在 OOD 偏移下进行拒答的任务。
- 使用比准确率更丰富的指标:结果集上的 IoU、值准确率、覆盖率-风险权衡、修复率、可归因失败。
- 标准化环境,以隔离目标能力并减少混杂因素。
- 加入反事实或 oracle 式干预,以验证诊断是否可操作。
- 开放问题 / 失效模式:
- 一些基准依赖特权专家、伪标注器或受控语料库,未必能平滑迁移到生产环境。
- 精确匹配指标可能会过度惩罚语义上可接受的输出。
- 高难度基准可能让进展看起来普遍很差,却无法明确指出瓶颈子技能。
- 拒答系统可能依赖并非所有专有模型都能提供的证据格式。
主题:面向鲁棒性的训练时与推理时干预
- 为什么重要:今天的论文显示,研究正从通用扩展转向有针对性的干预,改变模型所见的数据、奖励或内部状态。重点是在尽量少重训练的前提下,或通过更忠实的优化信号来提升可靠性。
- 代表论文:
- From Insight to Action: A Novel Framework for Interpretability-Guided Data Selection in Large Language Models
- BARRED: Synthetic Training of Custom Policy Guardrails via Asymmetric Debate
- JURY-RL: Votes Propose, Proofs Dispose for Label-Free RLVR
- Prefill-Time Intervention for Mitigating Hallucination in Large Vision-Language Models
- 共同方法:
- 在无需昂贵标注的情况下提升监督质量:经辩论筛选的合成数据、由证明门控的奖励、特征引导的样本选择。
- 更早地介入流程:预填充 KV cache 引导、微调前的数据选择、策略坍缩前的奖励塑形。
- 将廉价提议与昂贵验证分离。
- 用消融实验表明“验证”或“因果特征”组件确实在发挥作用。
- 开放问题 / 失效模式:
- 对辅助工件存在依赖,例如 SAE、形式验证器、分割掩码,或强生成器/评审模型。
- 即使部署成本低,前期生成/验证成本也可能很高。
- 基准指标上的提升未必能充分反映长尾安全行为。
- 超参数敏感性仍是风险,尤其是引导强度和回退奖励设计。
主题:面向可扩展、可信智能体部署的系统基础设施
- 为什么重要:可靠性越来越是一种系统属性,而不只是模型属性。多篇论文聚焦身份、服务、形式化验证和递归协作,把它们视为让智能体系统可部署所需的底层基础。
- 代表论文:
- AgentDID: Trustless Identity Authentication for AI Agents
- Scalable Inference Architectures for Compound AI Systems: A Production Deployment Study
- From CRUD to Autonomous Agents: Formal Validation and Zero-Trust Security for Semantic Gateways in AI-Native Enterprise Systems
- Recursive Multi-Agent Systems
- 共同方法:
- 将智能体系统视为由显式接口、信任边界和按组件扩展能力构成的组合式工作流。
- 添加轻量控制层,而不是重训练所有基础模型:DID/VC、语义网关、递归链接模块、混合路由。
- 直接衡量运行指标:吞吐量、延迟、gas 成本、token 使用量、冷启动降低幅度。
- 使用形式化或半形式化抽象来推理状态转移和失败遏制。
- 开放问题 / 失效模式:
- 区块链和验证层可能带来显著延迟。
- 形式化抽象未必能随工具数量或工作流复杂度扩展。
- 生产案例研究可能难以跨供应商和领域泛化。
- 递归或高度模块化系统可能提升效率,但同时引入新的可观测性和安全挑战。
3) 技术综合
- 一个反复出现的设计模式是提议/验证分离:JURY-RL 用投票提议、用 Lean 验证;SKILLGUARD-ROBUST 先抽取证据再选择性验证;BARRED 先生成再辩论;SOC 分诊先收集证据再做裁决。
- 许多论文用中间可观测信号替代不透明的端到端判断:方差、定位质量、一致性、来源元数据、置信区间,或结构化失败类别。
- 分布偏移是跨领域的主要压力源:跨语言越狱检测在异质攻击上明显退化;VLM 评审器的不确定性会随任务扩大;选择性预测在 OOD VQA 上评估;条件失配只在上下文变体下出现。
- 多种方法明确兼容黑盒:语义码本、SnapGuard、SIEVES 选择器、AgentDID 运行时探针,以及非生成式 LoRA 筛查,都避免在部署时要求模型内部信息。
- 研究明显转向一次性或低开销干预,而不是昂贵的逐 token 控制:PTI 只在预填充阶段一次性修改 KV cache;SnapGuard 增加轻量级动作前过滤;FAMA 增加最小辅助上下文;复合服务通过协同预热来优化。
- 基准构建正变得更具对抗性和操作性:全文科学检索、精确值结构化抽取、混合动机谈判,以及包级技能审计,都瞄准真实部署瓶颈而非玩具任务。
- 多篇论文表明,格式正确是语义正确的弱代理:结构化 JSON 可能模式合法但内容错误,VLM 评审器可以排序却不能打分,而智能体工作流也可能执行正确却产出无效科学结论。
- 辅助模型正变得越来越核心:OCR、VLM 伪标注器、GPT 评审器、形式证明器、SAE 和多语嵌入器,往往与基础模型一样决定系统质量。
- 多项结果表明,更好的监督往往关乎更好的数据几何,而不只是更多数据:特征共振选择、反事实忠实性数据、合成边界案例,以及有害专门化探针,都试图让训练/评估信号在因果上更对齐。
- 系统类论文进一步强化了这样一个观点:智能体可靠性是端到端的。冷启动、身份/状态验证、语义路由和信任边界执行,都可能主导用户可见的安全性与性能。
4) Top 5 论文(附“为什么是现在”)
- Conditional misalignment: common interventions can hide emergent misalignment behind contextual triggers
- 表明常见缓解手段——数据混合、事后良性微调、免疫式提示——可以压制可见失配,同时保留由触发器激活的失败模式。
- 之所以有用,是因为它直接挑战当前后训练安全实践:“通过通用评测”可能意味着“失配被隐藏了”。
- 跨数据集和模型家族的广泛实证范围,使其不只是一次性的后门轶事。
- 持保留态度之处:实验是小规模 SFT 研究,而非完整 RLHF 流水线,因此能否迁移到生产级后训练仍待验证。
- Evaluating Risks in Weak-to-Strong Alignment: A Bias-Variance Perspective
- 将弱到强对齐风险连接到一个可测诊断:在已测试设置中,强模型方差比聚合风险代理更能跟踪盲点欺骗。
- 现在有用,是因为弱监督流水线对可扩展对齐仍然很有吸引力,而这提供的是早期预警信号,而不只是事后发现失败。
- 从理论到诊断的桥接具有实用性:一个框架覆盖 SFT、RLHF 和 RLAIF 风格流水线。
- 持保留态度之处:证据仍属探索性,且仅基于 Llama 家族模型中的八组流水线/数据集组合。
- Structured Security Auditing and Robustness Enhancement for Untrusted Agent Skills
- 提出一个针对多文件智能体技能的具体分阶段审计流水线,瞄准跨文件攻击链和改写鲁棒性。
- 之所以有用,是因为智能体“技能”和工具包正成为真实的供应链攻击面,而单次提示护栏并不适合这种结构。
- 报告中的强结果聚焦于正确的失效模式:在改写下减少 malicious→suspicious collapse。
- 持保留态度之处:基准与方法的共同演化,以及经过净化的样本,意味着开放世界泛化能力仍未确定。
- AutoResearchBench: Benchmarking AI Agents on Complex Scientific Literature Discovery
- 引入了一个高难度、受控的全文科学发现基准,要求智能体验证技术约束的合取,有时还必须得出“无答案存在”的结论。
- 现在有用,是因为“深度研究”智能体正在快速扩散,但现有基准对完整性和证据验证的衡量不足。
- 其头条结果具有决策价值:最佳系统的准确率/IoU 仍在个位数附近,说明这一能力远未解决。
- 持保留态度之处:当前范围仍是固定的、以 CS 为中心的语料库,且构建/评估资源开销较大。
- Prefill-Time Intervention for Mitigating Hallucination in Large Vision-Language Models
- 将幻觉缓解前移,通过引导初始 KV cache,而不是在解码过程中反复干预。
- 之所以有用,是因为它在几乎零运行时开销下带来了显著实证收益,这在 LVLM 安全方法中较为少见。
- 对部署尤其相关:它可以与现有解码时方法组合,而不是取而代之。
- 持保留态度之处:引导方向的提取依赖手工设计的对比构造以及干预强度调参。
5) 实际下一步
- 在后训练流水线中加入触发条件评测套件:对任何安全微调,同时测试通用提示和与训练格式、角色或领域相匹配的上下文变体。
- 在弱到强设置中,除准确率外还跟踪方差/不确定性诊断;具体记录强模型置信度离散度和类盲点指标,再决定是否扩展监督流水线。
- 对智能体/工具生态,从扁平提示护栏转向结构感知的预加载审计,覆盖技能、代码仓库和工具包,并显式处理跨文件链与改写鲁棒性。
- 如果你运营基于截图或黑盒的智能体,优先部署廉价的外部过滤器:截图注入检测器、语义码本越狱过滤器,以及运行时状态检查,都能立即提供纵深防御。
- 在多模态评估中,不要再把评审器分数当作真值;应尽可能使用排序,在无法排序时使用校准区间,并根据区间宽度来限制高风险用途。
- 对 RAG 和结构化抽取系统,衡量有依据的值正确性,而不只是 schema 通过或答案流畅;加入反事实上下文冲突测试和精确叶子值审计。
- 在工具使用型智能体中,记录过程级失败分类法,并将失败路由到定向辅助模块,而不是到处叠加通用多智能体脚手架。
- 对 RL 或合成护栏训练,优先采用将廉价生成与昂贵验证分离的流水线,并基准测试验证器是否真的减少了坍缩或奖励黑客行为。
基于逐篇论文分析生成;未进行外部浏览。
