在推荐系统中,包括检索和排名在内的传统多阶段范式通常会遭受阶段之间的信息损失和降低性能。受自然语言处理的启发,生成模型的最新进展表明,有可能统一这些阶段以减轻这种损失。本文介绍了统一的生成推荐框架(UNIGRF),这是一种新颖的方法,将检索和排名整合到单个生成模型中 ...
0 0 0 2025/04/24 arXiv:2504.16454v1 lhp
本文介绍了一种新型的数值方法,可以在自主驾驶场景中实现平稳的车道变化轨迹。我们的轨迹生成方法利用粒子群优化(PSO)技术,结合了轨迹细化的神经网络(NN)预测。通过将多项式曲线拟合与粒子传播相结合,可以促进平滑且动态可行的轨迹,从而促进了可以解释车辆动力学的粒子传播 ...
0 0 0 2025/04/24 arXiv:2402.01575v1 tl010403
在指纹识别领域工作的研究人员的主要障碍是缺乏公开可用的大规模指纹数据集。确实存在的公开数据集包含很少的身份和印象。这限制了许多主题的研究,包括e ...
0 0 0 2025/04/24 arXiv:2201.03674v3 wang123456
大型语言模型(LLM)已成为人工智能的关键,在推理,理解和生成数据中表现出强大的能力。但是,它们在边缘设备上的部署受到大量大小的阻碍,通常达到数十亿个参数。量化是一种广泛使用的方法来减少记忆使用时间和推理时间,但是由于离群值在激活中的流行,LLM会带来独特的挑战 ...
0 0 0 2025/04/24 arXiv:2504.13989v1 xiximayou
潜在的指纹增强是潜在指纹识别的必要预处理步骤。大多数潜在的指纹增强方法试图恢复损坏的灰色山脊/山谷。在本文中,我们提出了一种新的方法,该方法将潜在的指纹增强为生成对抗网络(GAN)框架中的指纹生成问题 ...
0 0 0 2025/04/24 arXiv:2206.12885v1 wang123456
作为扩展大型语言模型(LLMS)的方法,专家(MOE)架构的混合物已变得越来越流行。为了节省成本,已经提出了异质性感知的培训解决方案,以利用由较新的和较旧的GPU组成的GPU群集。但是,现有的解决方案对不同MOE模型组件的性能特征不可知(i ...
0 0 0 2025/04/24 arXiv:2504.03871v1 zasolla
我们提出了ReaderLM-V2,这是一种紧凑的15亿个参数语言模型,旨在有效的Web内容提取。我们的模型处理最多512K Token ,将混乱的HTML转变为具有高精度的干净降价或JSON格式 - 使其成为接地大语言模型的理想工具 ...
0 0 0 2025/04/24 arXiv:2503.01151v1 takkeri
扩散 Transformer (DITS)在视觉生成任务中表现出色,例如基于文本说明生成逼真的图像或视频。但是,较大的模型大小和视频生成的多帧处理导致计算和内存成本增加,这对边缘设备上的实际部署构成了挑战。训练后量化(PTQ)是降低记忆成本和计算复杂性的有效方法 ...
0 0 0 2025/04/24 arXiv:2406.02540v3 11123

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)