通过增强学习(RL)的在线微调视觉模型(VLM)代理表明,有望在动态环境中为代理提供多步,面向目标的功能。但是,他们的开放式文本行动空间和行动产生的非端到最终性质对RL的有效在线探索提出了重大挑战,例如 ...
数据密集型机器学习工作负载的指数增长已经暴露了常规GPU加速系统的重大限制,尤其是在处理超过GPU DRAM容量的数据集时。我们建议MQM,这是一种增强的存储GPU架构和模拟器,它意识到内部SSD状态和操作,从而实现智能调度和地址分配,以克服由CPU介导的数据访问模式引起的性能瓶颈。 MQMS引入了动态地址分配,以最大程度地提高内部并行性和细粒度的地址映射,以有效处理小的I/O请求,而无需招致阅读 ...
对SSD的需求不断增长,再加上缩放困难,制造商争先恐后地寻找更新的SSD接口,这些接口有望更好地性能和耐用性。尽管这些接口降低了传统抽象的刚度,但它们需要应用程序或系统级别的更改,以影响系统的稳定性,安全性和可移植性。更糟糕的是,随着下一代界面的引入,这种变化是徒劳的 ...
蒸馏已成为一种实用有效的方法,以增强开源语言模型的推理能力。在这项工作中,我们通过从三个最先进的教师模型 - 思考-V1,QWEN3-235B-A22B和DeepSeek-r1-R1-On收集经过验证的输出,对推理数据蒸馏进行了大规模的实证研究 ...
道路表面重建在自主驾驶系统中起着至关重要的作用,从而使道路巷道的感知和高精度映射能够。最近,神经隐式编码在场景表示中取得了显着的结果,尤其是在现实的场景纹理渲染中。但是,它在直接代表大型场景的几何信息时面临挑战 ...
尽管商业阿拉伯语自动语音识别(ASR)系统支持现代标准阿拉伯语(MSA),但他们在方言语音方面挣扎。我们使用Mozilla Common For So MSA和MASC数据集进行了微调对五个主要阿拉伯语方言(Gulf,Levantine,Iraqi,Eghrebi)的五个主要阿拉伯语方言的影响。我们评估了MSA训练尺寸的影响,预训练对MSA数据的好处,以及方言特异性与方言模型的效果 ...
自回归解码使得大型语言模型(LLM)的推理非常运行。在本文中,我们重新考虑推测性损失并得出两个关键的观察结果。首先,特征(第二层到深度)的自回归比水平 Token 级别更直接... ...
基于大型语言模型 (LLM) 的应用程序由 LLM 和非 LLM 组件组成,每个组件都会导致端到端延迟。尽管在优化 LLM 推理方面付出了巨大努力,但端到端工作流程优化却被忽视了。现有框架采用任务模块的粗粒度编排,这将优化限制在每个模块内,并产生次优的调度决策 ...