大型语言模型(LLMS)已在各种任务中表现出显着的上下文推理功能,尤其是在非结构化输入(例如语言或图像)的情况下。但是,由于缺乏对非欧几里得结构的了解,LLM努力处理结构化数据,例如图形。结果,在没有其他微调的情况下,它们的性能显着落后于图形学习任务中的图神经网络(GNN) ...
0 0 0 2025/03/11 arXiv:2502.13562v1 treetreeshark
在高保真度中代表人类表现是不同应用程序(例如电影制作,计算机游戏或视频会议)的重要组成部分。为了缩小生产水平质量的差距,我们介绍了HumanRF,这是一个4D动态的神经场景表示,从多视图视频输入中捕获了全身外观,并可以从小说《未看到的观点》中播放。我们的新型表示是一种动态视频编码,该视频通过将时空分解为时间矩阵向量分解,以高压率捕获细节 ...
0 0 0 2025/03/11 arXiv:2305.06356v2 brf
我们探索可扩展的机器人数据如何解决通用机器人操作的现实世界挑战。与现有数据集相比,我们引入了一个大型平台,这是一个大型平台,在五个部署方案中,在五个部署方案中包括超过100万个轨迹,在五个部署方案中,数据量表的速度提高。 Agibot World通过标准化的收集管道加速,并保证了高质量和多样化的数据分布 ...
0 0 0 2025/03/11 arXiv:2503.06669v1 ywc
在最近的研究中,面向任务的对话(TOD)系统正在引起越来越多的关注。当前的方法着重于构建预训练的模型或微调策略,而TOD的评估受到政策不匹配问题的限制。也就是说,在评估过程中,用户话语来自带注释的数据集,而这些话语应与以前的响应进行交互,除了带注释的文本外,还可以选择许多替代方案 ...
0 0 0 2025/03/11 arXiv:2210.14529v1 Sonsiiii
视力语言表示学习在很大程度上通过对比度损失(例如Infonce损失)从图像文本对准中受益 ...
0 0 0 2025/03/11 arXiv:2202.10401v4 Arlix
大型语言模型(LLM)的系统,即包括LLM作为中心组件的互连元素(e ...
0 0 0 2025/03/11 arXiv:2502.00409v2 赵旭阳
金融交易一直是一项具有挑战性的任务,因为它需要从各种模式中整合大量数据。传统的深度学习和强化学习方法需要大量的培训数据,并且通常涉及将各种数据类型编码为模型输入的数值格式,这限制了模型行为的解释性。最近,基于LLM的代理商在处理多模式数据方面表现出了显着的进步,使他们能够执行复杂的多步骤决策任务,同时为他们的思维过程提供见解 ...
0 0 0 2025/03/11 arXiv:2411.08899v1 yang1young
股票运动预测是财务时间序列预测的基本任务,需要从大量的时间序列数据中识别和检索关键影响因素。但是,现有的基于文本培训或基于数字相似性的检索方法在处理复杂的财务分析方面缺乏。为了解决这个问题,我们提出了第一个针对财务时间序列预测的检索型(RAG)框架,其中包含三个关键创新:一种微调的1B参数大语言模型(Stockllm)作为骨干,这是一种新颖的候选选择方法,利用LLM的反馈,并在Queriess和历 ...
0 0 0 2025/03/11 arXiv:2502.05878v2 yang1young

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)