我们解决了几何图像编辑的任务,其中图像中的对象是重新定位,重新定位或重塑的,同时保持整体场景相干性。以前的基于扩散的编辑方法通常试图在一个步骤中处理所有相关的子任务,这在转换变得大或结构复杂时很难。我们通过提出一条解耦的管道来解决这一问题,该管道将对象转换,源区域介绍和目标区域改进分开 ...
0 0 0 2025/09/28 arXiv:2507.23300v2 smallz
模仿学习通过观察专家的示威游行而无需获得环境奖励信号来解决学习的挑战。大多数不需要与环境进行交互的现有模仿学习方法是否将专家分布建模为条件概率p(a | s)(例如, ...
0 0 0 2025/09/28 arXiv:2302.13335v4 万类霜天
多元时间序列数据通常包括两个不同的模式:可变语义和采样数值观察。传统的时间序列模型将变量视为匿名统计信号,忽略了嵌入在变量名称和数据描述中的丰富语义信息。但是,这些文本描述符通常编码关键领域知识,这对于健壮且可解释的建模至关重要 ...
0 0 0 2025/09/28 arXiv:2508.09630v2 BanXiang
扩散模型在文本到原告的生成中显示出了显着的进展。但是,文本指导的音频编辑仍处于早期阶段。此任务着重于在保留其余的同时修改音频信号中的目标内容,因此根据文本提示要求精确的本地化和忠实的编辑 ...
0 0 0 2025/09/28 arXiv:2509.14003v1 CJY1018
大型语言模型(LLM)的快速发展表现出了自然语言处理中出色的多语言能力,在学术界和工业中都引起了全球关注。为了减轻潜在的歧视并增强了各种语言用户群体的总体可用性和可访问性,这对于开发语言技术很重要。尽管LLM的突破性取得了突破,但对多语言场景的调查仍然不足,在此综合调查总结了最新方法,发展,局限性和潜在解决方案 ...
0 0 0 2025/09/28 arXiv:2405.10936v2 alimir
大型语言模型(LLM)广泛使用,但运行昂贵,尤其是随着推理工作量的增长。为了降低成本,通过有效管理GPU内存来最大化请求批次大小至关重要。虽然最近提出了PageDation术来提高记忆管理的效率,但我们发现现代LLM体系结构的嵌入尺寸,注意力和访问模式的异质性越来越多,引入了记忆分配的新挑战 ...
0 0 0 2025/09/28 arXiv:2503.18292v1 hx5563
我们提出了一种称为CQG的生成方法,用于使用神经网络和WordNet从给定文章中构建披oo的问题,重点是生成多机干扰器。 Built on sense disambiguation, text-to-text transformation, WordNet's synset taxonomies and lexical labels, CQG selects an answer key for a ...
0 0 0 2025/09/28 arXiv:2410.04266v1 manlinghun
大型语言模型(LLM)的最新进展推动了在复杂的技术方案中采用副驾驶,这强调了对专业信息检索解决方案的日益增长的需求。在本文中,我们介绍了Flair,这是一个轻巧的反馈学习框架,该框架通过集成特定领域的专家反馈来适应副系统的检索策略。 Flair分为两个阶段:离线阶段从(1)用户反馈和(2)从文档中综合的问题获得指标,以分散的方式存储这些指标 ...
0 0 0 2025/09/28 arXiv:2508.13390v1 moshmode

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)