Experts(MOE)模型虽然对各种机器学习任务非常有效,但在内存受限的设备上面临着重要的部署挑战。尽管GPU提供了快速推断,但与CPU相比,它们的内存有限意味着并非所有专家都可以同时存储在GPU上,需要从CPU内存中频繁,昂贵的数据传输,通常会否定GPU速度的优势。为了解决这个问题,我们提出了DAOP,这是一种在设备上推理引擎,以优化并行的GPU-CPU执行 ...
0 0 0 2025/03/09 arXiv:2501.10375v1 littlecat
最近,3D高斯脱落(3DGS)以高质量的渲染和实时速度彻底改变了神经渲染。但是,当涉及大量无纹理区域的室内场景时,由于点云的初始化和不受约束的优化,3DGS会产生不完整和嘈杂的重建结果。受签名距离字段(SDF)的连续性的启发,该距离在建模方面具有优势,我们提出了一个统一的优化框架,将神经SDF与3DGS集成 ...
0 0 0 2025/03/09 arXiv:2405.19671v1 LeisureFish
我们引入了替换,这是一种检索增强的语言建模框架,它将语言模型(lm)视为黑匣子,并通过可调整的检索模型对其进行增强。之前的检索增强型语言模型通过特殊的交叉注意机制训练语言模型来编码检索到的文本,而,而,它只是将检索到的文档添加到冻结黑盒,它只是将检索到的文档添加到冻结黑盒lm的输入中。这种简单的设计可以轻松应用于任何现有的检索和语言模型... ...
0 0 5 2025/03/09 arXiv:2301.12652v4 云汐瑶
大型语言模型(LLMS)的致命脚跟是他们幻觉非事实陈述的趋势。事实和非事实陈述的回应构成了人类验证并准确基于决策的挑战。为了解决这个问题,我们提出了突出显示的链条链(HOT),这是一种提示LLMS使用XML标签生成响应的技术,这些标签将事实扎根于查询中提供的事实 ...
0 0 0 2025/03/09 arXiv:2503.02003v2 19829292852
大型语言模型已经在各种下游任务中表现出出色的性能,并且已在多种情况下广泛应用。人类注销的偏好数据用于培训,以进一步提高LLMS的性能,这受到人类绩效上限的约束。因此,已经提出了自我奖励方法,其中LLM通过奖励自己的产出来生成培训数据 ...
0 0 0 2025/03/09 arXiv:2503.03746v1 19829292852
自然语言也许是人类将任务传达给机器人的最灵活,最直观的方式。在模仿学习中的先前工作通常需要使用任务ID或目标图像指定每个任务 - 在开放世界环境中通常是不切实际的。另一方面,以前的教学方法中的先前方法允许代理行为以语言为指导,但通常在观测值,执行器或语言中假设结构将其适用性限制在诸如机器人技术之类的复杂设置中 ...
0 0 0 2025/03/09 arXiv:2005.07648v2 蔡明方
放大输入图像是促进小物体检测的一种简单有效的方法。然而,简单的图像放大在计算和 GPU 内存上都非常昂贵。事实上,小物体通常分布稀疏且局部聚集 ...
0 0 0 2025/03/09 arXiv:2407.16424v2 AIBILI

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)