AI 论文日报(2026-03-16)

Published:

English version: /paper-news/2026-03-16/

运行统计

  • 候选论文: 407
  • 入选论文: 30
  • 已精读完成: 30
  • 时间窗口 (UTC): 2026-03-13T00:00:00Z → 2026-03-14T00:00:00Z (weekend_backlog_sat, expanded=0)
展开查看用于总结的论文列表
arXiv ID标题 / 链接分类评分入选理由标签
2603.12183Proof-Carrying Materials: Falsifiable Safety Certificates for Machine-Learned Interatomic Potentials
PDF
cond-mat.mtrl-sci, cs.AI, cs.LG, physics.comp-ph93Falsifiable safety certificates + adversarial auditing + Lean formalization; strong reliability angle.safety-certificates, formal-verification, adversarial-testing, uncertainty, reliability, auditing
2603.12249SciMDR: Benchmarking and Advancing Scientific Multimodal Document Reasoning
PDF
cs.CL, cs.AI, cs.CV92300K scientific multimodal doc-reasoning dataset + expert eval benchmark; reusable for MLLM training/testingmultimodal, document-reasoning, dataset, benchmark, evaluation, scientific-qa, grounding
2603.11493OrthoEraser: Coupled-Neuron Orthogonal Projection for Concept Erasure
PDF
cs.CV, cs.AI, cs.CY91Concept erasure for T2I via SAE disentanglement + orthogonal projection; safety-relevant, less collateral damagetext-to-image, safety, concept-erasure, sparse-autoencoders, feature-disentanglement, robustness
2603.12145Automatic Generation of High-Performance RL Environments
PDF
cs.LG, cs.AI, cs.SE90Agentic workflow to auto-translate RL envs into high-perf code w/ verification; big speedups, reusable recipeagents, RL, code-generation, verification, simulation, tooling
2603.11935MobileKernelBench: Can LLMs Write Efficient Kernels for Mobile Devices?
PDF
cs.LG, cs.AI88Benchmark for whether LLMs can generate efficient mobile kernels; practical eval + tooling pipeline.LLM-evaluation, code-generation, systems, efficiency, benchmark, mobile
2603.11559AI Knows What's Wrong But Cannot Fix It: Helicoid Dynamics in Frontier LLMs Under High-Stakes Decisions
PDF
cs.AI, cs.HC88Documents a high-stakes failure mode across frontier LLMs; useful for safety evals despite case-series limitsLLM-safety, failure-modes, high-stakes, evaluation, reliability, behavioral-dynamics
2603.09160RubiCap: Rubric-Guided Reinforcement Learning for Dense Image Captioning
PDF
cs.CV, cs.AI, cs.LG86RL for open-ended captioning using LLM-written rubrics as dense rewards; scalable supervision alternativeRLHF, LLM-judges, rubrics, vision-language, synthetic-data, evaluation
2603.11650QChunker: Learning Question-Aware Text Chunking for Domain RAG via Multi-Agent Debate
PDF
cs.CL86Question-aware chunking via multi-agent debate; directly targets RAG failure mode (chunk quality).RAG, chunking, multi-agent, retrieval, domain-adaptation
2603.11414MaterialFigBENCH: benchmark dataset with figures for evaluating college-level materials science problem-solving abilities of multimodal large language models
PDF
cs.CL, cond-mat.mtrl-sci86Figure-centric benchmark for college materials problems; targets real multimodal reasoning failure modesmultimodal, benchmark, figures, STEM, evaluation, reasoning
2603.11974Normative Common Ground Replication (NormCoRe): Replication-by-Translation for Studying Norms in Multi-agent AI
PDF
cs.AI86Framework to study norm emergence/coordination in multi-agent AI via translated human experimentsmulti-agent, norms, governance, evaluation, social-dynamics
2603.09643MM-tau-p$^2$: Persona-Adaptive Prompting for Robust Multi-Modal Agent Evaluation in Dual-Control Settings
PDF
cs.ET, cs.AI84New multimodal agent benchmark with persona/dual-control robustness; relevant to real deployments.agent-evaluation, multimodal-agents, robustness, persona, benchmark, TTS
2603.11811RADAR: Closed-Loop Robotic Data Generation via Semantic Planning and Autonomous Causal Environment Reset
PDF
cs.RO, cs.AI, cs.CV84Fully autonomous closed-loop robot data generation using VLM planning + causal resets; reduces human bottleneckrobotics, agents, VLM, data-generation, autonomy, embodied-ai
2603.09214PrivPRISM: Automatically Detecting Discrepancies Between Google Play Data Safety Declarations and Developer Privacy Policies
PDF
cs.AI84LLM-based detection of privacy disclosure inconsistencies at scale; concrete real-world compliance impact.privacy, policy-analysis, LLMs, compliance, auditing
2603.09151Deep Tabular Research via Continual Experience-Driven Execution
PDF
cs.AI84Agentic framework for long-horizon table reasoning with closed-loop execution; relevant to tool-using agentsagents, tabular-reasoning, long-horizon, planning, tool-use, information-extraction
2603.09481GenePlan: Evolving Better Generalized PDDL Plans using Large Language Models
PDF
cs.AI84LLM+evolution generates interpretable generalized PDDL planners; strong benchmark performance vs baselinesLLM-agents, planning, PDDL, program-synthesis, generalization
2603.11653Simple Recipe Works: Vision-Language-Action Models are Natural Continual Learners with Reinforcement Learning
PDF
cs.LG, cs.RO83Finds simple sequential FT+LoRA avoids forgetting in VLA continual RL; impactful for agent training.embodied-agents, VLA, continual-learning, reinforcement-learning, LoRA, post-training
2603.09938Model Merging in the Era of Large Language Models: Methods, Applications, and Future Directions
PDF
cs.CL82Comprehensive LLM model merging survey + taxonomy; useful for capability composition and governance.model-merging, LLMs, survey, taxonomy, fine-tuning, deployment
2603.11554MANSION: Multi-floor lANguage-to-3D Scene generatIOn for loNg-horizon tasks
PDF
cs.CV, cs.AI, cs.RO82Generates multi-floor building-scale 3D scenes + 1k-building dataset for long-horizon embodied tasksembodied-ai, benchmarks, 3D-scene-generation, long-horizon, robotics
2603.09827MA-EgoQA: Question Answering over Egocentric Videos from Multiple Embodied Agents
PDF
cs.CV, cs.AI82Multi-agent egocentric video QA + memory aggregation benchmark; relevant to embodied multi-agent systems.embodied-agents, multi-agent, video-QA, long-horizon, benchmark
2603.11515Multi-Agent Collaboration for Automated Design Exploration on High Performance Computing Systems
PDF
cs.AI82LLM multi-agent framework that runs HPC workflows; concrete agentic deployment pattern with real toolingagents, multi-agent, tool-use, HPC, workflow-automation, scientific-discovery
2603.11679LLMs can construct powerful representations and streamline sample-efficient supervised learning
PDF
cs.AI80Agentic rubric-based representation construction for sample-efficient supervised learning across tasks.agentic-pipelines, representations, sample-efficiency, LLMs, automation, supervised-learning
2603.09881Do What I Say: A Spoken Prompt Dataset for Instruction-Following
PDF
cs.CL80Multilingual spoken-prompt dataset to evaluate speech LLM instruction following; shows modality gapsspeech-LLMs, instruction-following, benchmark, robustness, multilingual
2603.09774World2Mind: Cognition Toolkit for Allocentric Spatial Reasoning in Foundation Models
PDF
cs.AI80Training-free toolkit builds 3D cognitive maps to boost foundation models' allocentric spatial reasoningagents, spatial-reasoning, tool-augmented, 3D-mapping, multimodal
2603.09400Reward Prediction with Factorized World States
PDF
cs.CL79Factorized world-state representations via LMs for reward prediction; could improve goal generalization.agents, reward-modeling, world-models, state-representation, generalization
2603.11924Chem4DLLM: 4D Multimodal LLMs for Chemical Dynamics Understanding
PDF
cs.LG, cs.CL79New task+benchmark for 4D trajectory-to-language chemical dynamics reasoning; enables eval of temporal MLLMsbenchmark, multimodal, scientific-LLMs, temporal-reasoning, chemistry
2603.09716AutoAgent: Evolving Cognition and Elastic Memory Orchestration for Adaptive Agents
PDF
cs.AI78Multi-agent framework with evolving cognition + elastic memory; relevant but claims need scrutiny.agents, memory, orchestration, multi-agent, tool-use, frameworks
2603.11798DocSage: An Information Structuring Agent for Multi-Doc Multi-Entity Question Answering
PDF
cs.AI78Schema-aware agent for multi-doc multi-entity QA; targets evidence chains beyond vector/graph RAG limitsRAG, agents, information-extraction, multi-document-QA, reasoning
2603.11395ARROW: Augmented Replay for RObust World models
PDF
cs.LG, cs.AI78Model-based continual RL (DreamerV3) with memory-efficient replay; tackles catastrophic forgetting.continual-RL, world-models, Dreamer, replay, robustness
2603.09043Time, Identity and Consciousness in Language Model Agents
PDF
cs.AI78Proposes instrumented metrics for identity persistence in LM agents; evaluation angle for agentic behavioragent-evaluation, identity, instrumentation, behavioral-metrics, scaffolding
2603.11578Streaming Translation and Transcription Through Speech-to-Text Causal Alignment
PDF
cs.CL78End-to-end streaming speech translation with WAIT-token policy; strong systems contribution and latency tradeoffsspeech-to-text, simultaneous-translation, streaming, sequence-modeling, latency, training-tricks

AI 论文洞察简报

2026-03-16

0) 执行要点(先读这个)

  • 针对智能体的“自我报告/回忆”式评估在结构上可能具有误导性:身份要素可能在一个窗口内出现,但从未在某个决策步共同实例化,因此即使测试通过,“稳定身份”也可能无法约束行动(Time, Identity and Consciousness in Language Model Agents)。
  • 结构化、可执行的中间表示正在跨领域胜出:用于奖励估计的对象–属性世界状态、多文档 QA 的关系模式 + SQL、处理杂乱表格的元图 + 算子执行、以及用于空间推理的 AST 异中心地图,相比纯文本/RAG 基线都有显著提升。
  • LLM-as-judge 正日益成为瓶颈:多模态智能体基准显示评审不一致与安全标签噪声;基于量规(rubric)的 RL 与策略/标签流水线高度依赖评审校准,且可能被“刷分”或发生漂移(MM-tau-p², RubiCap)。
  • 智能体式“计划–执行–验证–修复”闭环正从演示走向可量化的工程收益:移动端 kernel 生成在多智能体迭代与硬件在环评测下,从低编译/正确率跃升到高 CSR/FCR(MobileKernelBench);类似闭环也出现在表格研究与 RL 环境翻译中。
  • 持续学习正在分化为两条实用配方:(a) 通过分布匹配缓冲区的世界模型回放,降低持续 RL 的遗忘(ARROW);(b) 对大型预训练 VLA,简单的顺序 LoRA + on-policy RL 可在多基准上实现接近零遗忘(Simple Recipe Works)。
  • 安全/合规工作正变得可流水线验证且可审计:大规模 PP↔DS 差异检测并结合 APK 证据进行三角验证(PrivPRISM),以及面向 ML 原子间势的可证伪“携证证明(proof-carrying)”证书:对抗搜索 + Lean 证明(Proof-Carrying Materials)。

2) 关键主题(聚类)

主题:时间锚定与“身份是否真的约束行动”

  • 重要性:只检查特质/记忆是否在上下文某处出现的智能体评估,可能高估稳定性与安全性;关键在于决策时刻是否存在完整的、落地的合取(grounded conjunction)。
  • 代表论文
  • 常见方法
    • 形式化智能体脚手架/交互步骤,并在轨迹上定义可操作的度量。
    • 强调“元识别或回忆存在,但行为并不可靠改变”的情形。
  • 开放问题 / 失效模式
    • 如何为真实智能体技术栈做仪表化,以在行动时测量共同实例化(而非要素出现)。
    • 在不可验证/高风险场景中,提升“识别”(反思、自我批评)的干预是否能可靠改善行为。

主题:结构化状态与奖励作为规划骨干

  • 重要性:零样本/可泛化规划需要密集的进度信号;纯文本相似度或基于评审的奖励常与逐步任务进展不对齐。
  • 代表论文
  • 常见方法
    • 构建因子化的潜在/状态表示(对象–属性信念;RSSM 世界模型)。
    • 使用回放/想象 rollout 训练策略,同时控制遗忘。
  • 开放问题 / 失效模式
    • 对状态抽取与相似度几何的 embedding/LLM 选择敏感(StateFactory)。
    • 持续设置中的任务顺序与奖励尺度敏感;固定缓冲区划分与缩放问题(ARROW)。

主题:RAG 正在变成“结构优先”(模式、分块、算子)

主题:多模态评估的现实性(语音、图表、长论文)

主题:带硬验证器的智能体工程闭环(编译/运行/测量)

主题:可审计的安全/合规流水线(隐私 + 概念擦除 + 形式化证书)

  • 重要性:部署需要可检查的产物(矩阵、证明、结构化差异),而不是不透明的“模型说安全”。
  • 代表论文
  • 常见方法
    • 将 LLM 抽取与验证器模型/约束结合(自监督验证器;逻辑包络;几何零空间投影)。
    • 跨来源三角验证(政策文本 vs DS 标签 vs APK 证据;对抗搜索 + DFT 复算;安全 vs 保真度指标)。
  • 开放问题 / 失效模式
    • 静态分析会漏掉运行时行为(PrivPRISM)。
    • SAE 质量与用于大规模擦除的零空间有限(OrthoEraser)。
    • 证明在公理下认证推理,而非物理;组合探针可能与真实结构不同(PCM)。

3) 技术综合

  • 多篇论文在 “中间表示作为契约(contracts)” 上趋同:AST(异中心空间树)、对象–属性状态、关系模式/SQL 表、表格元图、以及用于 caption 的量规,都充当感知/检索与生成之间可检查的接口。
  • 闭环执行反馈 是主导性的鲁棒性杠杆:算子执行轨迹(DTR)、编译/测试/性能剖析(MobileKernelBench)、分层验证(RL 环境翻译)、SQL 执行 + 约束检查(DocSage)、以及 VQA 布尔成功检查 + reset FSM(RADAR)。
  • 评估正从单一标量分数转向多指标仪表盘(MM-tau-p² 的 12 个指标;身份弱/强持久性;合规矩阵;奖励预测的 EPIC 距离),反映“通过/失败”会掩盖失效模式。
  • 对评审的依赖是反复出现的脆弱点:量规 RL 依赖 LLM 评审;MM-tau-p² 显示评审不一致;SciMDR 用 LLM 做综合与评估;这些流水线需要类似软件测试的校准/鲁棒性检查。
  • 持续学习结果表明在某些设定下架构比“CL 小技巧”更重要:世界模型回放缓冲区(ARROW) vs 大预训练 + LoRA + on-policy RL(VLA 持续 RL)展示了不同的稳定路径。
  • RAG 特定洞见:上游分块/模式/结构可能主导下游 QA 质量;QChunker 的 ChunkScore 与 ROUGE-L 强相关(λ≈0.3),DocSage 的结构化抽取是最关键的消融组件。
  • 安全/鲁棒性正变得几何与逻辑感知:OrthoEraser 用零空间投影避免附带损伤;DocSage 用跨记录约束;PCM 用 bootstrap 包络 + Lean 证明。
  • 模态现实性暴露隐藏缺口:口语提示会拉低文本输出任务(DOWIS),人格条件化可能降低安全回忆(MM-tau-p²),整篇论文上下文相对 oracle 上下文会显著降分(SciMDR)。

4) Top 5 论文(含“为何现在”)

1) Time, Identity and Consciousness in Language Model Agents

  • 形式化了一个具体评估失效:窗口内“出现”不意味着决策时共同实例化(定理 3.10),因此回忆/自我报告可能带来虚假安心。
  • 提供可仪表化指标(弱/强持久性)与从轨迹计算它们的算法——对智能体技术栈日志可直接落地。
  • 架构含义:RAG 可提高弱持久性,但不提升(甚至降低)强持久性;并发容量限制共同实例化。
  • 保留意见:偏理论/方法学;未报告实证测量。

2) DocSage: An Information Structuring Agent for Multi-Doc Multi-Entity Question Answering

  • 在 MDMEQA 上有大幅实证提升:MEBench 上 0.892 vs GPT-4o+RAG 的 0.620(+27.2pp)。
  • 展示实用配方:交互式模式发现 + 约束检查抽取 + 带溯源的 SQL 推理。
  • 消融指出关键因素(结构化抽取)。
  • 保留意见:多阶段流水线成本高且依赖基础模型质量;在噪声/矛盾语料上可能退化。

3) MobileKernelBench: Can LLMs Write Efficient Kernels for Mobile Devices?

  • 表明“LLM 写 kernel”主要被编译/API 幻觉阻塞——直到加入仓库感知的多智能体迭代 + 端上在环验证。
  • MoKA 达到 CSR 93.7% 与 FCR 75.3%,其中 27.4% 的 kernel 比原生 MNN 快 >1.5×;包含一个 6.82× 的 LayerNorm2D 案例研究。
  • 提供基准与自动化流水线(注册→编译→验证→端上性能)。
  • 保留意见:仅在一个引擎(MNN CPU)与一个设备/SoC 上评测;更广泛后端通用性未验证。

4) PrivPRISM

  • 大规模测量:7,770 个热门游戏中约 53% 存在 PP–DS 差异;1,711 个非游戏应用中约 61%。
  • 编码器–解码器 + 自监督验证器是降低 LLM 幻觉同时保持可解释性的务实模式。
  • 结合 APK 静态分析与人工审计进行三角验证(例如政策 URL 重定向问题)。
  • 保留意见:静态分析可能漏掉运行时行为;部分差异可能具有解释空间/歧义。

5) Proof-Carrying Materials: Falsifiable Safety Certificates for Machine-Learned Interatomic Potentials

  • 量化严重部署失败:在 2.5 万材料上,MLIP 筛选召回率 0.07(漏掉 93% 的 DFT 稳定材料)。
  • PCM 流水线结合对抗搜索、bootstrap 安全包络与 Lean 4 机器检验证明;并用独立 DFT 复算验证失败(20/20,中位力比约 ~12×)。
  • 增加前瞻风险模型(AUC-ROC 0.938 ± 0.004)与案例研究:在 20% DFT 预算下提升热电产出(+62 个稳定材料)。
  • 保留意见:证明依赖公理;DFT 是“真值”(非实验);组合探针引入近似差距。

5) 实用下一步

  • 智能体评估:增加轨迹级日志记录“身份要素激活”,并计算 Pweak 与 Pstrong;除非能证明行动时共同实例化,否则将回忆/自我报告视为弱证据。
  • RAG 系统:试点 结构优先流水线——(a) 问题感知分块 + 补全(QChunker 风格),或 (b) 查询特定模式 + 约束检查抽取 + SQL(DocSage 风格)——并与仅 embedding 的 RAG 对比测量增益。
  • 评审可靠性:对任何 LLM-as-judge 指标,运行 多评审/多随机种子一致性检查,并显式跟踪分歧率(MM-tau-p² 显示在升级(escalation)案例上存在相关性标签噪声)。
  • 闭环智能体:在存在验证器(编译/测试/执行)的地方,投入 迭代修复闭环,并进行角色分离(编码/调试/优化)与硬件在环测量(MobileKernelBench 模式)。
  • 持续学习:若在做持续 RL,对比 (i) 带分布匹配缓冲区的世界模型回放(ARROW)与 (ii) SeqFT + LoRA + on-policy RL(面向大型预训练 VLA),并在相同任务顺序扰动下评测。
  • 多模态现实性:加入口语提示评测(DOWIS 风格)与带显式定位的全文档多模态 QA(SciMDR 风格),避免从纯文本测试高估能力。
  • 安全/合规审计:采用“可审计产物”(合规矩阵、差异报告、安全包络),并跨来源三角验证(政策文本 + 声明 + 代码证据;对抗发现 + 独立复算)。

由逐篇分析生成;未进行外部浏览。