通过支持较大的模型,更长的输入和较大的批次大小,将大型语言模型(LLMS)状态陈述在推理期间降低运营成本。但是,现有内存卸载机制的设计不会考虑延迟服务级目标(SLO)。结果,它们要么导致经常违反SLO的行为,要么不利于宿主记忆,从而导致经济损失,从而击败了记忆的卸载目的 ...
0 0 0 2025/03/09 arXiv:2502.08182v1 tea5
由于性能强大,验证的语言模型已成为许多NLP任务的标准方法,但训练非常昂贵。我们提出了一个简单有效的学习框架TLM,该框架不依赖大规模预处理。给定一些标记的任务数据和大型的一般语料库,TLM使用任务数据作为查询来检索一般语料库的一小部分,并共同优化了从头开始的任务目标和语言建模目标 ...
0 0 0 2025/03/09 arXiv:2111.04130v2 haoyb22
大型语言模型(LLM)表现出强大的有效性和鲁棒性,同时作为密集的猎犬进行了微调。但是,它们的较大参数规模带来了重大的推理时间计算挑战,包括大规模语料库的高编码成本和增加的查询延迟,从而限制了其实际部署。尽管较小的猎犬提供了更高的效率,但他们通常无法通过有限的监督微调数据有效地概括 ...
0 0 0 2025/03/09 arXiv:2502.18460v1 haoyb22
生成具有指定身份的高保真人类视频已引起内容生成社区的广泛关注。然而,现有技术很难在训练效率和身份保存之间取得平衡,要么需要繁琐的逐案微调,要么通常会在视频生成过程中丢失身份细节。在这项研究中,我们提出了 ID-Animator,这是一种零镜头人类视频生成方法,可以在给定单个参考面部图像的情况下执行个性化视频生成,而无需进一步训练 ...
0 0 0 2025/03/09 arXiv:2404.15275v3 yisinoya
利用大型语言模型(LLM)进行零样本文档排名可以通过以下两种方式之一完成:1)基于提示的重新排名方法,该方法不需要进一步的训练,但仅适用于对少数候选文档进行重新排名,因为计算成本; 2)无监督对比训练的密集检索方法,可以从整个语料库中检索相关文档,但需要大量的配对文本数据进行对比训练。在本文中,我们提出了 PromptReps,它结合了两个类别的优点:不需要训练并且能够从整个语料库中检索。我们的方 ...
0 0 0 2025/03/09 arXiv:2404.18424v3 haoyb22
代表大约3D大分子的3D结构和推理是机器学习中的一个独特挑战。在这里,我们扩展了有关几何矢量感知器的最新工作,并将均衡图神经网络应用于结构生物学的各种任务。我们的方法的表现优于Atom3D基准中八个任务中三个任务中三个的所有参考体系结构,首先是在另外两个任务上并列的,并且使用高阶表示和球形谐波卷积与Equivariant网络竞争 ...
0 0 0 2025/03/09 arXiv:2106.03843v2 assassinkkkk
近年来,深层生成模型在设计新型药物分子方面取得了巨大的成功。一系列新的作品表明,通过考虑蛋白质口袋的结构来提高硅药物设计的特异性和成功率的巨大潜力。该设置发布了对可以满足口袋施加的多种几何约束的新化学化合物的基本计算挑战 ...
0 0 0 2025/03/09 arXiv:2205.07249v1 assassinkkkk
肖像统一旨在将主题综合成新的背景,调整其照明和颜色,以确保与背景场景和谐相处。现有的统一技术通常只专注于调整前景的全球颜色和亮度,而忽略背景的关键照明提示,例如明显的照明方向,从而导致不现实的组成。我们引入了Relightful Conyrization,这是一种照明感知的扩散模型,旨在使用任何背景图像无缝地协调前景肖像的复杂照明效果 ...
0 0 0 2025/03/09 arXiv:2312.06886v2 alanyhan

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)