检索增强的生成(RAG)使大型语言模型能够访问外部和私人语料库,从而在特定领域中实现了一致的响应。通过利用语料库的固有结构,基于图的抹布方法通过构建知识图索引并利用图形的结构性质进一步丰富了这一过程。但是,当前基于图的抹布方法很少优先考虑图形结构的设计 ...
0 0 0 2025/04/20 arXiv:2504.11544v1 buchikeke
在本文中,我们通过利用基于图的建模技术提出了一种新颖的方法来对手写数学表达识别(HMER)。我们介绍了一个端到端模型,该模型旨在执行同时节点和边缘分类。该模型有效地集成了节点和边缘特征,从而促进了符号类的预测及其在数学表达式中的关系 ...
0 0 0 2025/04/20 arXiv:2410.18555v1 llm
我们提出rignet,这是一种从输入角色模型生成动画装备的端到端自动化方法。给定代表关节式角色的输入3d模型,rignet会预测符合动画师在关节放置和拓扑方面的预期的骨架。它还根据预测的骨架估计表面皮肤权重... ...
0 0 0 2025/04/20 arXiv:2005.00559v2 parsifalster
较大的机器学习(ML)模型的出现在各种建模任务中都改善了最先进的(SOTA)性能,从计算机视觉到自然语言。随着ML模型的尺寸继续增加,它们各自的能耗和计算要求也随之增加。但是,跟踪,报告和比较能耗的方法仍然有限 ...
0 0 0 2025/04/20 arXiv:2103.16435v1 胖河豚
3D部分Amodal分割 - 将3D形状分解为完整的,语义上有意义的部分,即使被遮挡 - 是3D内容创建和理解的具有挑战性但至关重要的任务。现有的3D零件分割方法仅识别可见的表面斑块,从而限制了它们的效用。受2D Amodal细分的启发,我们将这项新型任务介绍给了3D域,并提出了一种实用的,两阶段的方法,解决了推断闭塞3D几何形状的关键挑战,保持了全球形状的一致性,并通过有限的训练数据来处理多样的 ...
0 0 0 2025/04/20 arXiv:2504.07943v1 parsifalster
最近,通过有效减少硬件计算和内存访问来加速大型语言模型(LLMS)的早期退出是一种有前途的技术。在本文中,我们提出了Spece,这是一种快速的LLM推理引擎,具有投机性早期退出。 (1)在算法级别上,我们通过利用投机 Token 与正确的结果和GPU的高平行性之间的概率相关性来提出基于投机的轻质预测器设计 ...
0 0 0 2025/04/20 arXiv:2504.08850v1 muuuchen
深度学习(DL)可以在各种任务中取得令人印象深刻的成果,但这通常是以在专业硬件加速器上进行的大量培训模型的成本来实现的。近年来,这种能源密集型工作量的增长巨大。如果这种指数趋势继续下去,机器学习(ML)可能会成为气候变化的重要贡献 ...
0 0 0 2025/04/20 arXiv:2007.03051v1 胖河豚
视频识别的标准方法通常在完整的输入视频上运行,这是由于视频中广泛存在的时空冗余效率而效率低下。蒙版视频建模的最新进展,即 ...
0 0 0 2025/04/20 arXiv:2207.11660v1 happy

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)