参数有效的微调(PEFT)已成为一种流行的解决方案,用于将预训练的视觉 Transformer (VIT)模型适应下游应用。尽管当前的PEFT方法已经达到了参数效率,但它们忽略了微调和推断期间计算和GPU内存的效率,但没有实际要求。在本文中,我们提出了\ textbf {稀疏调整},这是一种新颖的PEFT方法,可以说明图像和视频中的信息冗余,以提高上述效率 ...
0 0 0 2025/04/25 arXiv:2405.14700v2 link.yu
我们介绍了从点云进行表面重建的传统和基于学习的方法的全面调查和基准。由于噪声,异常值,不均匀抽样和缺失数据等因素,这项任务对于实际获取而言尤其具有挑战性。传统方法通常通过在输入点云或结果表面上施加手工制作的先验来简化问题,该过程可能需要乏味的高参数调整 ...
0 0 0 2025/04/25 arXiv:2301.13656v4 zhuyuanxiang
在各种NLP任务中,检索式的大型语言模型(LLMS)非常胜任。但是,以前的作品观察到,检索并不总是有帮助的,尤其是当LLM已经在查询回答的查询中知识渊博时。仅在LLM中缺少查询的知识时,就以此为动机,自适应检索效果生成(ARAG)研究 ...
0 0 0 2025/04/25 arXiv:2404.03514v2 ZhangChi
从其原始的离散点云观察中重建二维流形的连续表面是一个长期存在的问题。这个问题在技术上是不适的,并且考虑到通过实用深度扫描获得的点云中出现各种感应缺陷,因此变得更加困难。在文献中,已经提出了丰富的方法,还提供了现有方法的综述 ...
0 0 0 2025/04/25 arXiv:2205.02413v1 zhuyuanxiang
视频生成的任务需要综合视觉现实和时间连贯的视频帧。现有方法主要使用异步自动回归模型或同步扩散模型来应对这一挑战。然而,异步自动回归模型通常会遭受训练和推理之间的不一致,导致诸如误差累积的问题,而同步扩散模型受到对刚性序列长度的依赖的限制 ...
0 0 0 2025/04/25 arXiv:2503.07418v1 kevinson
语言模型的链条响应可改善大多数基准的性能。但是,目前尚不清楚这些绩效增长在多大程度上可以归因于类似人类的任务分解或仅仅是其他 Token 允许的更大计算。我们表明,变形金刚可以使用毫无意义的填充 Token (e ...
0 0 0 2025/04/25 arXiv:2404.15758v1 leec
近年来,使用深度强化学习(RL)解决了各个领域的挑战性问题,取得了重大进展。重现现有的工作并准确判断新方法提供的改进对于维持这一进步至关重要。不幸的是,最先进的深度RL方法的再现结果很少直接 ...
0 0 0 2025/04/25 arXiv:1709.06560v3 李白
在研究和应用中,增强大语言模型的适应性能力是一项关键的追求。传统的微调方法需要大量的数据和计算资源,尤其是为了增强特定功能,而文化学习受到适当的演示和有效的 Token 使用的限制。灵感来自于通过任务向量学到的功能的表达和模块化的概念,我们提出了一个\ alg,该框架由两个模块组成,旨在有效地存储和重复使用任务向量,以在没有其他培训或推理 Token 的情况下引起模型的多样化功能 ...
0 0 0 2025/04/25 arXiv:2410.09343v2 TomTom

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)