准确地描绘了遥感(RS)图像中现实世界的景观需要精确的对象与其环境之间的对齐。但是,自然图像的大多数现有合成方法优先考虑前景控制,通常将背景减少到纯质地。这忽略了前景与背景之间的相互作用,这可能导致RS场景中的不一致 ...
0 0 0 2025/02/05 arXiv:2412.08464v2 COO
图形神经网络(GNN)被广泛用于学习图形结构化数据的强大表示。最近的工作表明,将知识从自学任务转移到下游任务可以进一步改善图表表示。但是,就优化目标和培训数据而言,自我监督任务和下游任务之间存在固有的差距 ...
0 0 0 2025/02/05 arXiv:2107.08765v2 nininininin666
基于图像的虚拟尝试(VTON)旨在通过将输入服装转移到目标人的形象上来产生虚拟的尝试结果。但是,配对的服装模型数据的稀缺性使现有方法在VTON中实现高概括和质量方面具有挑战性。另外,它限制了生成无面膜试用的能力 ...
0 0 0 2025/02/05 arXiv:2501.15891v1 jeft
大型语言模型(LLMS)主要通过生成API请求来提高任务完成效率。 API请求生成的准确性显着决定了LLM完成任务的能力。由于LLM内部的固有幻觉,因此很难有效,准确地生成正确的API请求 ...
0 0 0 2025/02/05 arXiv:2410.06943v1 zhw869461332
以前的人形机器人研究工作将机器人视为两足动物移动操纵平台,只有脚和手接触环境。但是,我们人类使用所有身体部位与世界互动,例如 ...
0 0 0 2025/02/05 arXiv:2502.01465v1 chuhonlin
大规模预训练语言模型在回忆训练语料库中呈现的事实知识方面出奇地好。在本文中,我们通过引入知识神经元的概念,对事实知识如何存储在预训练的 Transformer 中进行了初步研究。具体来说,我们检查了伯特的填空完形填空任务... ...
0 0 0 2025/02/05 arXiv:2104.08696v2 jjduys
O1模型的令人印象深刻的数学和科学推理能力为大型语言模型(LLM)(LLM)的最新突破彰显了高质量培训数据在跨STEM学科中提高LLM绩效的重要重要性。尽管数学社区受益于越来越多的精选数据集,但高等教育水平的科学领域长期以来一直遭受了可比资源的稀缺。为了解决这一差距,我们提出了SCP-116K,这是一种新的大规模数据集,该数据集为116,756个高质量的问题解决方案对,使用简化且高度可推广的管道自 ...
0 0 0 2025/02/05 arXiv:2501.15587v1 piupiu
我们提出了通用文档处理(UDOP),这是一个基础文档AI模型,该模型将文本,图像和布局模式与各种任务格式(包括文档理解和生成)一起统一。 UDOP利用文本内容和文档图像之间的空间相关性,以模拟图像,文本和布局模式,具有一个均匀的表示形式。 UDOP借助新颖的视觉文本 Transformer ,将预处理和多域下游任务统一为基于及时的序列生成方案 ...
0 0 0 2025/02/05 arXiv:2212.02623v3 leosurre

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)