最近,自我监督的预训练在W.R.T.的各种任务上具有先进的视觉 Transformer  ...
0 0 0 2025/06/10 arXiv:2207.10228v1 DamnMan
推理的最新进展显着增强了大语模型(LLM)和多模式大型语言模型(MLLM)的能力。但是,过度依赖对经营链(COT)推理会损害模型性能,并带来不必要的延长产出,从而降低效率。我们的工作表明,延长推理并不能普遍提高准确性,甚至无法在更简单的任务上降低绩效 ...
0 0 0 2025/06/10 arXiv:2505.15154v1 jiangnan
该模型生成修补程序来修复现实世界错误的问题已成为评估大语言模型(LLMS)功能的关键基准。尽管SWE-Bench及其变体已成为该领域的标准配置,但它们受到关键限制:自初次发行以来,它们尚未进行更新,涵盖了狭窄的存储库,并严重依赖手动努力,例如建筑和环境设置。这些因素阻碍可伸缩性并引入过度拟合和数据污染的风险 ...
0 0 0 2025/06/10 arXiv:2505.23419v2 leec
Biological brains demonstrate complex neural activity, where the timing and interplay between neurons is critical to how brains process information. Most deep learning architectures simplify neural ac ...
0 0 0 2025/06/10 arXiv:2505.05522v3 leec
Biological brains demonstrate complex neural activity, where the timing and interplay between neurons is critical to how brains process information. Most deep learning architectures simplify neural ac ...
0 0 0 2025/06/10 arXiv:2505.05522v2 leec
大型语言模型(LLM)在代码生成任务中表现出了有效性。为了使LLMS能够应对更复杂的编码挑战,现有的研究集中在用代理工作流程制作多代理系统,其中复杂的编码任务被分解为分配给专用代理的子任务。尽管它们有效,但当前的方法在很大程度上依赖于手动拓扑和提示手动设计的手工制作的代理工作流程,这限制了它们自动适应不同类型的编码问题的能力 ...
0 0 0 2025/06/10 arXiv:2505.18646v1 leec
大型语言模型(LLM)的最新进展使代理能够自主执行复杂的开放式任务。但是,许多现有的框架在很大程度上取决于手动预定义的工具和工作流,这阻碍了它们的适应性,可扩展性和跨域的概括。在这项工作中,我们介绍了Alita,这是一种以“简单性是最终成熟的原则”设计的通才代理,通过最小的预定和最大的自我进化来促进可扩展的代理推理 ...
0 0 0 2025/06/10 arXiv:2505.20286v1 leec
搜索和推荐系统在许多服务中都是必不可少的,并且它们通常是单独开发的,从而导致复杂的维护和技术债务。在本文中,我们提出了一个统一的深度学习模型,该模型有效地处理了这两个任务的关键方面 ...
0 0 0 2025/06/10 arXiv:2408.10394v1 小新

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)