使用2018年$ J/\ psi $峰的专用数据样本,我们对BESIII检测器的触发效率进行了详细研究。这些效率取决于三个代表性的物理过程,即带有带电颗粒的bhabha碎片,二足和通用耐药事件。在大多数情况下,所有活动触发器的综合效率都接近$ 100 \%$,而不确定性则足够小,以免影响大多数物理分析 ...
0 0 0 2025/06/04 arXiv:2009.11566v1 abcde
大型语言模型(LLM)的越来越多导致移动计算中的新范式 - 供电的移动AI代理 - 可直接在智能手机上进行分解和自动化复杂任务。但是,这些代理的安全含义在很大程度上尚未得到探索。在本文中,我们介绍了对移动LLM代理的首次全面安全分析,其中包括三个代表性类别:由原始设备制造商开发的系统级AI代理(e ...
0 0 0 2025/06/04 arXiv:2505.12981v2 hhhhh
我们研究一种新型的语言模型体系结构,能够通过潜在空间中隐式推理来扩展测试时间计算。我们的模型通过迭代复发块来起作用,从而在测试时间内展开对任意深度。这与主流推理模型相反,该模型通过产生更多的 Token 来扩展计算 ...
0 0 0 2025/06/04 arXiv:2502.05171v2 18971205188
基于DIT的视频生成取得了显着的结果,但是对增强现有模型的研究仍然相对尚未探索。在这项工作中,我们介绍了一种无训练的方法,以增强基于DIT的生成视频的连贯性和质量,名为Anemance-A-Video。核心思想是增强基于非对抗时间注意分布的跨框架相关性 ...
0 0 0 2025/06/04 arXiv:2502.07508v3 xiewende
大型语言模型 (LLM) 的最新进展显着增加了上下文窗口大小,支持复杂的应用程序,但也引入了大量的计算开销,特别是在预填充阶段计算键值 (KV) 缓存。前缀缓存的出现是为了在这种情况下节省 GPU 功耗,它将 KV 缓存保存在磁盘上并在多个查询中重用它们。然而,传统的前缀缓存机制常常会遇到很大的延迟,因为将 KV 缓存从磁盘加载到 GPU 内存的速度受到 I/O 设备吞吐量的瓶颈 ...
0 0 0 2025/06/04 arXiv:2410.03065v2 mike_zhang
多模式的大语言模型(MLLM)在推理任务中表现出了有希望的能力,但仍在与需要明确自我反思和自我纠正的复杂问题上挣扎,尤其是与他们的单峰基于文本的同行相比。现有的反思方法是简单的,并且难以产生有意义的和启发性的反馈,因为预训练模型的推理能力和知识限制在初始培训期间很大程度上是固定的。为了克服这些挑战,我们提出了多模式的自我反思增强推理的推理(SRPO),这是一个两阶段反思 - 意识到的强化学习(RL ...
0 0 0 2025/06/04 arXiv:2506.01713v1 Leonliu022
大多数现有的数据预处理都是在CPU上完成的。尽管一些研究使用了多处理和双重缓冲等技术来加速CPU预处理,但CPU计算速度和存储带宽仍然限制了处理速度。其他研究试图使用智能数据存储设备(例如计算存储设备)来完成数据预处理而不是CPU ...
0 0 0 2025/06/04 arXiv:2407.00005v1 mike_zhang
GPU记忆能力的增长率无法跟上大语模型(LLM)的规模,从而阻碍了模型训练过程。特别是,激活 - 在正向传播过程中产生的中间张量并在向后传播中重复使用 - 主导了GPU存储器的使用。这会导致高训练开销,例如由于微型批量较小而导致的高重量更新成本 ...
0 0 0 2025/06/04 arXiv:2408.10013v2 mike_zhang

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)