参数有效的调整(PET)旨在通过学习少量参数将预训练的基础模型转移到下游任务。与传统的微调更新整个模型相比,PET大大降低了每个任务的存储和转移成本,而不管预先培训的模型容量呈指数增长。但是,大多数PET方法都继承了其大型骨干模型的推理潜伏期,并且由于其他模块(e ...
0 0 0 2025/06/18 arXiv:2503.20282v1 19396386025
大型语言模型(LLMS)使代理可以通过自由形式的语言互动执行复杂的推理和决策。但是,在开放式语言动作环境中(例如 ...
0 0 0 2025/06/18 arXiv:2506.00539v2 tianxi.wan
投机性解码可显着加速语言模型推断,通过启用轻质草稿模型来提出较大目标模型同时验证的多个 Token 。但是,将此技术应用于视觉模型(VLMS)提出了两个基本挑战:可以用作有效起草者的小语言模型缺乏处理视觉输入的架构组件,并且其 Token 预测无法匹配考虑视觉背景的VLM目标模型的VLM目标模型。我们介绍了视觉模型(MASSV)的投机解码的多模式适应和自DATA蒸馏,该模型将现有的小语言模型通过两 ...
0 0 0 2025/06/18 arXiv:2505.10526v2 hellogdc
人形机器人具有无与伦比的多功能性,以执行人类般的全身技能。但是,由于模拟与现实世界之间的动态不匹配,实现敏捷和协调的全身运动仍然是一个重大挑战。现有的方法,例如系统识别(SYSID)和域随机化方法(DR)方法,通常依赖于劳动密集型参数调整或导致过度保守的牺牲敏捷性的政策 ...
0 0 0 2025/06/18 arXiv:2502.01143v3 alex666
基于原型的原型重建方法用于无监督的异常检测使用有限的可学习原型集,该原型仅汇总了正常信息不足,从而导致不良的重建。但是,增加原型的数量可能会导致通过注意机制很好地重构异常,我们称这是“软身份映射”问题。在本文中,我们提议Pro-AD解决这些问题,并充分利用原型来提高异常检测的性能 ...
0 0 0 2025/06/18 arXiv:2506.13097v1 lzx
我们提出了Ming-Omni,这是一个能够处理图像,文本,音频和视频的统一的多模式模型,同时证明了语音和图像生成的熟练程度。 MING-OMNI采用专用编码器来从不同模态中提取 Token ,然后通过配备了新提出的特定于模态路由器的MoE体系结构Ling进行处理。该设计使单个模型能够在统一框架内有效地处理和融合多模式输入,从而促进了不同的任务,而无需单独的模型,特定于任务的微调或结构重新设计 .. ...
0 0 0 2025/06/18 arXiv:2506.09344v1 wonders
在大型语言模型(LLM)的数学推理中,通过查询进化和多种推理路径的微调数据增强是有效验证的,可以深刻地缩小开源LLM和尖端专有LLM之间的差距。在本文中,我们进行了数学推理中此类数据增强的调查,并旨在回答:(1)哪些数据增强策略更有效; (2)增强数据和模型性能的量之间的缩放关系是什么? (3)数据增强是否可以激励对跨域数学推理任务的概括?为此,我们通过使查询和多样化的查询和采样从GSM8K和MA ...
0 0 0 2025/06/18 arXiv:2310.05506v3 18812680264
在这项工作中,我们提供了对离散扩散语言模型(DLLM)和离散扩散多模式模型(DMLLMS)的系统调查。与自动回归(AR)模型不同,DLLM和DMLLMS使用全面关注和基于Denoising的发电策略采用了多键,平行的解码范式。该范式自然可以实现并行生成,细粒的输出可控性和动态响应感知感知 ...
0 0 0 2025/06/18 arXiv:2506.13759v1 hellogdc

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)