大型语言模型(LLM)的发展经常面临挑战,这是由于对人类反馈(RLHF)框架的强烈依赖人类注释者的依赖,或者与自我教学范式相关的频繁且昂贵的外部查询。在这项工作中,我们转向加强学习(RL) - 但有所不同。在指令数据培训之后,我们与典型的RLHF有所不同,该RLM可以通过RL直接生成仅用于微调的基础指令数据集 ...
0 0 0 2025/04/22 arXiv:2403.08694v4 woodman
进化算法(EA)在解决复杂组合优化问题方面取得了显着成功。但是,EAS经常在域专业知识的帮助下需要精心设计的运营商,以实现令人满意的性能。在这项工作中,我们将第一项关于大语言模型(LLM)作为进化组合优化的研究 ...
0 0 0 2025/04/22 arXiv:2310.19046v3 GiveYouAFIst
继大型语言模型(LLM)取得重大成就之后,研究人员将上下文学习用于文本分类任务。然而,这些研究侧重于单语言、单轮分类任务。在本文中,我们介绍了 LARA(语言自适应检索增强语言模型),旨在提高六种语言的多轮分类任务的准确性,适应聊天机器人交互中的众多意图 ...
0 0 0 2025/04/22 arXiv:2403.16504v3 jeffreyliu
低资源语言由于缺乏足够的语言数据,资源和工具而面临重大挑战,例如有监督的学习,注释和分类。这种短缺阻碍了准确的模型和数据集的开发,因此很难执行关键的NLP任务,例如情感分析或仇恨语音检测。为了弥合这一差距,大语言模型(LLMS)为潜在注释者提供了机会,能够为这些代表性不足的语言生成数据集和资源 ...
0 0 0 2025/04/22 arXiv:2411.17637v2 woodman
时空数据面临着与自然语言文本的许多类似挑战,包括序列中的位置(单词),位置之间的长距离依赖性以及具有多种含义的位置。在这项工作中,我们提出了一个新型模型,用于代表高维时空轨迹作为离散位置的序列,并使用基于 Transformer 的神经网络结构对其进行编码。与语言模型类似,我们用于代理表示编码(Stare)模型的序列 Transformer 可以通过两个监督任务学习轨迹数据中的表示和结构(e .. ...
0 0 0 2025/04/22 arXiv:2410.09204v1 jane88
随着车辆系统变得越来越复杂,具有更多功能,服务,传感器,执行器和处理单元,重要的是将车辆视为运输方式,而作为朝着充分自治的运输方式,而且是响应乘员需求的自适应系统。可以开发车辆服务以支持这些适应。但是,即使当前的标准化,最佳实践和准则,车辆服务开发的复杂性不足以应对高度复杂性,期望高达1(美国) ...
0 0 0 2025/04/22 arXiv:2407.17287v2 lcaiwen
当前的视频扩散模型具有令人印象深刻的发电质量,但由于双向关注依赖性,在交互式应用中挣扎。单一帧的生成要求模型处理整个序列,包括未来。我们通过将经过预定的双向扩散 Transformer 调整为自动回旋 Transformer ,该局限性在闪光时生成帧 ...
0 0 0 2025/04/22 arXiv:2412.07772v2 kevinson
大自然以形态和行为智力的复杂性发展生物,同时计算方法落后于接近这种多样性和功效。人工生物在硅中的形态和控制的合作式化表明了在物理软机器人和虚拟角色创造中应用的希望;但是,这种方法需要开发新的学习算法,这些算法可以推荐有关纯结构的功能。在本文中,我们提出了diffusebot,这是一种物理增强的扩散模型,该模型生成了能够在各种任务中出色的软机器人形态 ...
0 0 0 2025/04/22 arXiv:2311.17053v1 orangelcx

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)