建立在大型语言模型(LLM)上的推理密集型排名模型取得了显着进步,但是现有的方法通常依赖于大规模的LLM和显式的经过思考链(COT)推理,从而限制了现实世界中使用的高计算成本和延迟。为了解决这个问题,我们建议\ textbf {tfrank},这是一种基于小规模LLM的有效的定位等级。为了提高排名绩效,TFRANK有效地集成了COT数据,细粒度的分数监督和多任务培训 ...
0 0 0 2025/09/18 arXiv:2508.09539v2 kennithli123
顺序推荐(SR)系统通过分析交互历史来建模用户偏好。尽管与传统的基于ID的方法相比,可转移的多模式SR体系结构表现出较高的性能,但由于复杂的优化要求和负面传输效果,当前方法在适应新域时会产生大量的微调成本 - 这是一种大量的部署瓶颈,这使工程师无法有效地重新使用针对新颖的应用程序场景进行高度重新培训的新型应用程序,以使用最小的型号调节型号。我们提出了MMM4REC(用于顺序推荐的多模式MAMBA) ...
0 0 0 2025/09/18 arXiv:2506.02916v3 lyq1
多模式推理系统依靠预训练的对象检测器从图像中提取感兴趣的区域。但是,这个关键模块通常被用作黑匣子,与下游任务和固定的对象和属性词汇无关。这使得这样的系统要捕获以自由形式文本表达的视觉概念的长尾巴的挑战 ...
0 0 0 2025/09/18 arXiv:2104.12763v2 DJuncle
视频文本检索的图像文本预处理模型剪辑的参数效率改编是一个重要的研究领域。尽管剪辑专注于图像级视觉语言匹配,但视频文本检索要求在视频层面上进行全面了解。从图像级到视频级别的转移:视觉,语言和对齐方式都出现了三个关键差异 ...
0 0 0 2025/09/18 arXiv:2506.08887v1 Jht
医生咨询需要针对多元化患者角色量身定制的多转弯,背景感知的沟通。在这种情况下,培训或评估LLM的LLM需要现实的患者互动系统。但是,现有的模拟器通常无法反映临床实践中看到的全部角色 ...
0 0 0 2025/09/18 arXiv:2505.17818v1 会魔法的年轻人
大型语言模型(LLM)越来越多地用于需要长上下文长度的应用中,但是随着上下文的增长,键值(KV)缓存通常会成为GPU上的内存瓶颈。为了解决这个问题,我们提出了交换矢量量化(COMMVQ),以显着减少长篇文化LLM推断的内存使用情况。我们首先使用轻质编码器和代码簿引入添加量化,以压缩KV缓存,可以通过简单的矩阵乘法来解码 ...
0 0 0 2025/09/18 arXiv:2506.18879v1 13624519811
本文总结了Interspeech2025多语言对话语言模型(MLC-SLM)挑战,该挑战旨在推动探索有效的多语言对话语音LLMS(SLLMS)。我们提供了MLC-SLM挑战的任务设置的详细说明,已发布的现实世界多语言对话语音数据集总计约1,604小时,以及参与者的基线系统。 MLC-SLM挑战赛吸引了来自13个国家 /地区的78支球队参加,有489个有效的排行榜结果和14项技术报告 ...
0 0 0 2025/09/18 arXiv:2509.13785v1 zhangqi33
不断升级的人工智能(AI)要求暴露出一个关键的“计算危机”,其特征是能源消耗不可持续,培训成本过高以及传统CMOS扩展的即将限制。基于物理的应用程序特定的集成电路(ASIC)通过直接利用固有的物理动力来计算而不是花费资源来执行理想化的数字抽象来提出变革性范式。通过放松传统ASIC所需的限制,例如执行的无状态,单向性,确定性和同步,这些设备的目的是作为对物理过程的确切实现,从而在能源效率和计算吞吐量 ...
0 0 0 2025/09/18 arXiv:2507.10463v1 odenkkk

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)