通才代理必须在其一生中不断学习和适应,从而实现有效的前进转移,同时最大程度地减少灾难性遗忘。以前的预处理中的先前工作 - 最终的范式探索了单任务适应的参数有效调整,有效地转向了具有少量参数的冷冻预验证的模型。但是,在终生学习的背景下,这些方法依赖于测试时间任务标识符的不切实际的假设,并限制了孤立适配器之间的知识共享 ...
0 0 1 2025/07/13 arXiv:2506.05985v1 kavin
多模式大型语言模型(MLLM)整合了视觉和语言推理,以解决复杂的任务,例如图像字幕和视觉问题回答。尽管MLLMS表现出了显着的多功能性,但MLLM在特殊应用程序上的性能有限。但是,为下游任务调整MLLM会遇到两个关键挑战:任务外科专业化,在预训练和目标数据集之间的分布会限制目标性能和开放世界的稳定,其中灾难性遗忘会消除模型的通用知识 ...
0 0 0 2025/07/13 arXiv:2503.04543v1 moshmode
变量 Token 化将每个变体独立嵌入为单独的 Token ,在多元时间序列预测中取得了显着改善。但是,使用带有变量的自我发作会导致二次计算成本相对于变体的数量,从而限制了其对大规模应用的训练效率。为了解决这个问题,我们提出了Vardrop,这是一种简单而有效的策略,可以通过在培训期间省略冗余变量 Token 来减少 Token 使用情况 ...
0 0 0 2025/07/13 arXiv:2501.14183v2 帅哥
两足动力运动的增强学习(RL)最近仅使用本体感受感测,在中度地形上表现出了稳健的步态。但是,这种盲控制者将在机器人必须预料并适应当地地形的环境中失败,这需要视觉感知。在本文中,我们提出了一个完全学习的系统,该系统允许双皮亚机器人对当地地形做出反应,同时保持指挥速度和方向 ...
0 0 0 2025/07/13 arXiv:2309.14594v2 lrk
流匹配(FM)是一种最近的生成建模技术:我们旨在通过从某些分布$ \ mathfrak {x} _0 $中流出样品来学习如何从分发$ \ mathfrak {x} _1 $采样,这很容易从中进行采样。关键技巧是,可以在$ \ mathfrak {x} _1 $:给定终点的终点上进行调节时进行训练,只需沿着直线段移动到终点(Lipman等人2022) ...
0 0 0 2025/07/13 arXiv:2504.00494v2 gynn123456
为了很好地概括,分类器必须学会成为不会改变输入类别的滋扰转换。许多问题具有与所有类别相似的“类别”的滋扰转换,例如照明和图像分类的背景更改。神经网络可以在给定足够数据的情况下学习这些不传球,但是许多现实世界中的数据集都严重不平衡,并且在大多数类中仅包含几个示例 ...
0 0 0 2025/07/13 arXiv:2203.09739v1 gynn123456
最近,深度学习已应用于无手动经验的无线电信号的调制类别。但是,培训深度学习模型需要大量数据。培训数据不足会导致严重的过度拟合问题并降低分类准确性 ...
0 0 0 2025/07/13 arXiv:1912.03026v2 Serendipity
大型语言模型 (LLM) 的使用量不断增加,导致对全球服务系统的需求激增,其中数以万计的 GPU 持续为数亿用户提供服务。因此,吞吐量(在合理的延迟限制下)已成为确定服务系统性能的关键指标。为了提高吞吐量,设备间并行的各种方法(例如 ...
0 0 0 2025/07/13 arXiv:2408.12757v2 mulanshine1

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)