本文介绍了Paint3D,这是一种新颖的粗到精细的生成框架,能够为未纹理的3D网格提供高分辨率,无照明和不同的2K UV纹理图,该图在文本或图像输入上。所解决的关键挑战是在没有嵌入的照明信息的情况下生成高质量的纹理,这使得纹理可以在现代图形管道中重新注射或重新编辑。为此,我们的方法首先利用预训练的深度感知2D扩散模型来生成视图条件图像并执行多视图纹理融合,并产生初始的粗纹理图 ...
0 0 0 2025/04/13 arXiv:2312.13913v2 yuhan
检索授权的生成(RAG)使大型语言模型通过合并外部知识来提供更精确和相关的响应。在以查询为重点的摘要(QFS)任务中,基于GraphRag的方法显着提高了生成的响应的全面性和多样性。但是,现有的基于GraphRag的方法主要集中于粗粒信息摘要而不意识到特定查询,并且检索到的内容缺乏足够的上下文信息来产生全面的响应 ...
0 0 0 2025/04/13 arXiv:2504.07103v1 jwj5452365
大型推理模型(LRMS)最近将其强大的推理功能扩展到了使用经过思考的推理,以决定是否应回答请求。尽管这种新方法为平衡模型实用程序和安全性提供了有希望的途径,但其稳健性仍然没有得到充实。为了解决这一差距,我们介绍了恶意教育者,这是一个基准,该基准掩盖了看似合理的教育提示下的极其危险或恶意的要求 ...
0 0 0 2025/04/13 arXiv:2502.12893v2 dm616703
大型语言模型(LLMS)固有地使用自回旋解码,这在推理中缺乏并行性,并且导致推理速度明显缓慢。尽管Medusa之类的方法构建了并行的头部,但它们缺乏在不同预测位置上的足够信息相互作用。为了克服这一限制,我们介绍了Amphista,这是一个增强的投机解码框架,基于美杜莎 ...
0 0 0 2025/04/13 arXiv:2406.13170v2 k9354465
 Transformer 模型越来越多地用于求解部分微分方程(PDE)。已经提出了几种适应,所有这些都遭受了 Transformer 的典型问题,例如二次记忆和时间复杂性。此外,所有用于PDE求解的普遍架构缺乏理想替代模型的几个期望特性之一,例如(i)在训练过程中未见的PDE参数的概括,(ii)空间和零零 - 零摄像的超级分辨率,(iii)连续的临时外推,(iv)的临时效果,(iv),(iv),( ...
0 1 0 2025/04/13 arXiv:2406.03919v2 xiaochao
在现代数字环境中,用户经常对有争议的话题发表意见,提供有关普遍态度的大量信息。对这些观点的系统分析为包括营销和政治在内的各个领域的决策提供了宝贵的见解。因此,立场检测已成为情感计算中的一个重要子领域,能够自动检测社交媒体对话中的用户立场,并提供对复杂问题上公众情绪的细致入微的理解 ...
0 0 0 2025/04/13 arXiv:2409.15690v2 Nought8298
由于深度学习有效解决组合优化问题的潜力,神经组合优化(NCO)受到了极大的关注。 NCO已被广泛应用于车间调度问题(JSP),目前主要关注确定性问题。在本文中,我们提出了一个新型的基于注意力的方案处理模块(SPM),以扩展NCO方法以求解随机JSP ...
0 0 0 2025/04/13 arXiv:2412.14052v1 15154798158
图形神经网络(GNN)已被广泛用于在图表上的表示学习中,并在诸如节点分类和链接预测等任务中实现了最先进的性能。但是,大多数现有的GNN旨在学习固定和均匀图上的节点表示。当在错误指定的图或由各种类型的节点和边缘组成的异质图上学习表示表示时,限制尤其成为问题 ...
0 0 0 2025/04/13 arXiv:1911.06455v2 caojinhui

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)