Large Language Models (LLMs) have become an essential infrastructure for Artificial General Intelligence (AGI), yet their lack of well-defined memory management systems hinders the development of long ...
0 0 0 2025/07/08 arXiv:2507.03724v1 ZhangML
人工智能(AI)在许多领域取得了巨大的成功,自AI黎明以来,AI被广泛认为是其海滩头。近年来,关于游戏AI的研究已从相对简单的环境中逐渐发展(例如 ...
0 0 0 2025/07/08 arXiv:2003.13590v2 szbbob
最近的工作表明,训练损失量表是具有模型大小和 Token 数量的功率定律,并且实现Comperute-Timal模型需要缩放模型大小和 Token 数量。但是,这些缩放定律假设数据的无限供应,并主要应用于计算结合的设置。随着现代大型语言模型越来越依赖于大规模的互联网规模数据集,假设它们正在计算的假设变得越来越少 ...
0 0 0 2025/07/08 arXiv:2507.02754v1 odenkkk
扩散模型在现实世界视频超分辨率(VSR)中表现出了有希望的性能。但是,他们需要的数十个采样步骤使推理非常慢。采样加速技术,尤其是单步,提供了潜在的解决方案 ...
0 0 0 2025/07/08 arXiv:2505.16239v1 CatRabbitCat
善解人意的互动是人机交流的基石,因为需要理解具有副语言提示并产生情感和表现力的反应的言语。但是,最强大的同情LSLM越来越封闭,研究人员将有关建筑,数据和发展不透明的关键细节留给研究人员。鉴于对LSLM和同理心行为进行透明研究的批判性需要,我们提出了OpenS2S,这是一种完全开放源,透明和端到端LSLM,旨在实现促进性语音相互作用 ...
0 0 0 2025/07/08 arXiv:2507.05177v1 zhangqi33
最近,大型的预训练的语言模型已扩展并应用于具有巨大成功的编程语言任务,通常是通过进一步预先培训严格的自然语言模型 - 培训序列通常包含自然和(线性化的)编程语言。这种方法有效地将序列的两种方式都映射到相同的嵌入空间中。但是,编程语言关键字(e ...
0 0 0 2025/07/08 arXiv:2402.05783v2 Yieww
现代医疗图像注册方法可以使用深网预测变形。这些方法达到了最新的(SOTA)注册精度,并且通常很快。但是,与常规的非深度学习方法相比,深度学习(DL)方法是解剖学特定的 ...
0 0 0 2025/07/08 arXiv:2408.00221v2 Ferra_Lee
大型语言模型(LLMS)的最新进展揭示了封闭源和开源模型之间存在显着的性能差距,尤其是在需要复杂的推理和精确指导之后的任务中。本文介绍了Reason Bridge,这种方法可以通过新型的层次结构知识蒸馏框架有效地将推理能力从强大的封闭源转移到开源模型。我们开发了一个量身定制的数据集Reason1K,只有1,000个精心策划的推理轨迹强调了难度,多样性和质量 ...
0 0 0 2025/07/08 arXiv:2506.22865v1 kkkk

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)