大型语言模型(LLM)在代码生成任务中表现出了巨大的潜力。但是,开源和封闭源模型之间仍然存在性能差距。为了解决这一差距,现有方法通常会生成大量的合成数据进行微调,这通常会导致效率低下的培训 ...
0 0 0 2025/04/22 arXiv:2504.12687v1 jokerdd
大型语言模型(LLM)在代码生成中表现出强大的能力,强调了严格和全面评估的关键需求。现有的评估方法分为三类,包括以人为本,基于公制的和LLM。考虑到以人为本的方法是劳动密集型和基于指标的方法过于依赖参考答案,因此基于LLM的方法由于其更强的上下文理解能力和较高的效率而受到了越来越多的关注 ...
0 0 0 2025/04/22 arXiv:2504.13472v1 jokerdd
尽管大型神经网络表现出完成不同任务的卓越能力,但它们需要使用过多的内存来存储训练的优化状态。为了缓解这一问题,lora),lora,lora将整体权重更新矩阵限制为低秩,从而限制了模型性能... ...
0 0 0 2025/04/22 arXiv:2402.03293v2 xzc000
联合学习(FL)最近已应用于大语言模型(LLMS)的参数效率微调。尽管有希望,但由于客户的异质资源和数据分布,它引起了重大挑战。这项研究介绍了Flexlora,这是一种简单而有效的LLM微调汇总计划,在传统FL中降低了``桶效应''的````桶效应''',从而限制了客户提供充足资源的潜力,从而将他们绑定到了资源最少的参与者的能力 ...
0 0 0 2025/04/22 arXiv:2402.11505v2 IQ_QI
大型多模型(LMMS)在理解图像,视频和音频之外的音频方面表现出令人印象深刻的功能。但是,由于其在多阶段推理管道中的复杂体系结构和异质性特征,在生产环境中有效服务于生产环境会带来重大挑战。我们对六个代表性的开源模型进行了对两种突出的LMM架构,仅解码和交叉注意的首次全面系统分析,从而揭示了关键的系统设计含义 ...
0 0 0 2025/04/21 arXiv:2502.00937v2 tea5
深度强化学习(RL)算法是解决视觉运动决策任务的强大工具。但是,训练有素的模型通常很难解释,因为它们被表示为端到端的深神经网络。在本文中,我们通过分析任务执行期间所使用的像素,并将它们与人类执行相同任务的像素进行比较,从而阐明了这些受过训练的模型的内部工作 ...
0 0 0 2025/04/21 arXiv:2010.15942v3 xdd
大型语言模型(LLM)代理正在迅速改进,以处理日益复杂的基于Web的任务。这些代理中的大多数都依靠通用,专有模型(例如GPT-4),并专注于设计更好的提示以提高其计划能力。但是,通用LLM并未经过专门培训以了解HTML等专业网络环境,并且他们经常在长马计划中挣扎 ...
0 0 0 2025/04/21 arXiv:2411.15004v2 panda__
社区检测技术对于社交媒体平台很有用,可以发现共享共同利益的用户群体紧密相连。但是,这种功能通常是因为无意间揭示其口味或偏好而可能使个人违反隐私侵犯的牺牲。因此,有些用户可能希望保留其匿名性,并出于各种原因(例如与政治或宗教组织的隶属关系)选择退出社区发现,而无需离开平台 ...
0 0 0 2025/04/21 arXiv:2310.08909v2 18045186869

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)