扩散模型的最新进展为指导引导的图像编辑带来了显着的视觉保真度。但是,他们的全球denoising过程固有地将编辑区域与整个图像上下文纠缠在一起,从而导致意想不到的虚假修改并妥协遵守编辑指令。相反,自回旋模型通过将图像合成作为离散的视觉 Token 的顺序过程来提供独特的范式 ...
0 0 0 2025/09/18 arXiv:2508.15772v1 15801602183
为了了解和改善DRAM性能,可靠性,安全性和能源效率,商品DRAM芯片的先前工作研究特征。不幸的是,能够进行此类研究的最先进的开源基础设施基础设施是过时的,支持或难以使用的,或者其不灵活性限制了他们可以进行的研究类型。我们提出了DRAM Bender,这是一种新的基于FPGA的基础架构,可以对最先进的DRAM芯片进行实验研究 ...
0 0 0 2025/09/18 arXiv:2211.05838v5 895cc
现代语言代理必须在长马,多转弯相互作用上运行,它们可以检索外部信息,适应观察结果并回答相互依存的查询。然而,大多数LLM系统都依赖于全文提示,无论其相关性如何,所有过去的转弯都附加了。这会导致内存增长,计算成本的增加以及在分布外输入长度上降低推理性能 ...
0 0 1 2025/09/18 arXiv:2506.15841v2 aaaa1
尽管他们在复杂的任务推动广泛采用方面取得了巨大的成功,但由于延迟和推理成本,基于语言模型的大型代理仍然面临着关键的部署挑战。尽管最近的工作探索了加速推理的各种方法,但现有方法受到了重大局限性:它们要么无法保留性能保真度,需要对路由器模块进行广泛的离线培训,要么会产生过多的操作成本。此外,它们对加速度和其他性能指标之间的权衡的用户控制最少 ...
0 0 0 2025/09/18 arXiv:2509.01920v2 astonishe
培训大语言模型(LLM)通过加强学习(RL)进行推理,可以显着提高其解决问题的能力。在代理设置中,现有的方法(例如React提示LLMS)在每个操作之前都明确计划;但是,我们证明始终计划在计算上昂贵,并在长途任务上降低了性能,而从未计划进一步限制性能。为了解决这个问题,我们介绍了一个概念框架,将LLM代理的动态计划形式化,使他们能够灵活地决定何时分配测试时间计算进行计划 ...
0 0 0 2025/09/18 arXiv:2509.03581v1 astonishe
我们介绍了Ghostbuster,这是一种用于检测AI生成文本的最先进系统。我们的方法通过通过一系列较弱的语言模型传递文档,对其功能的可能组合进行结构化搜索,然后在所选功能上训练分类器,以预测文档是否是AI生成的。至关重要的是,Ghostbuster不需要从目标模型中访问 Token 概率,这对于检测由黑盒模型或未知模型版本生成的文本有用 ...
0 0 0 2025/09/18 arXiv:2305.15047v3 15966829631
机密计算在将敏感的应用与现代云中常见的大量不受信任的代码中隔离中发挥着重要作用。我们认为,也可以利用它来建立更安全,更安全的关键任务嵌入式系统。在本文中,我们介绍了保证的机密执行(ACE),一种针对嵌入式RISC-V系统的开源和免版税的机密计算技术 ...
0 0 0 2025/09/18 arXiv:2505.12995v1 tongxianhui
我们提出Lightvla,这是一个简单而有效的可区分的 Token 修剪框架(VLA)模型。尽管VLA模型在执行现实世界的机器人任务方面表现出了令人印象深刻的能力,但它们在资源受限平台上的部署通常受到大量基于注意力的视觉 Token 的大量计算的瓶颈。 LightVLA通过自适应,性能驱动的视觉 Token 来应对这一挑战:它生成动态查询以评估视觉 Token 的重要性,并采用Gumbel Sof ...
0 0 0 2025/09/18 arXiv:2509.12594v1 xubiao

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)