我们研究了完全连接的前馈神经网络的简单模型的高度非凸损失函数与球形旋转玻璃模型的哈密顿式模型的简单模型之间的联系:i)i)可变独立性,ii)网络参数化的冗余性,以及iii)均匀性。这些假设使我们能够通过随机矩阵理论的结果来解释完全脱钩的神经网络的复杂性。我们表明,对于大尺寸的脱钩网络,随机损耗函数的最低临界值形成了分层结构,它们位于由全局最小值的较低定义的频段中 ...
0 0 0 2025/06/09 arXiv:1412.0233v3 parsifalster
现有的长文本生成方法主要集中于从短输入中产生冗长的文本,忽略了长输入和长输入任务。此类任务在缺乏可用基准的同时具有许多实际应用。此外,随着输入的长度的增长,现有方法不可避免地遇到“中间失落”现象 ...
0 0 0 2025/06/09 arXiv:2503.06868v1 sunzhenyucn
我们通过培训模型来测试辩论作为一种可扩展监督的方法,以与通过自我播放产生的数据进行辩论。在一项长篇文章阅读理解任务中,我们发现基于语言模型的评估者在优化赢得辩论的判断模型时更准确地回答问题。相比之下,我们没有发现没有反对辩论者的咨询模型的咨询模型的这种关系 ...
0 0 0 2025/06/09 arXiv:2409.16636v1 leec
无需重新训练即可控制语言模型(LM)的行为是自然语言生成中的一个主要开放问题。虽然最近的作品在控制简单句子属性(例如 ... ...
0 0 0 2025/06/09 arXiv:2205.14217v1 xxx2050
我们提出了一个代理,自主图扩展框架,该框架迭代地结构并原位优化知识。与依靠静态提取或单通学学习的常规知识图构造方法不同,我们的方法将推理性的大型语言模型与不断更新的图表表示。在每个步骤中,系统都会积极生成新的概念和关系,将它们合并为全局图,并根据其不断发展的结构制定了随后的提示 ...
0 0 0 2025/06/09 arXiv:2502.13025v1 15942315998
有效利用大型的,以前收集的数据集在增强学习中(RL)是大规模现实世界应用程序的关键挑战。离线RL算法有望从先前收集的静态数据集中学习有效的策略,而无需进一步互动。但是,实际上,离线RL提出了一个重大挑战,由于数据集和学习策略之间的分布变化引起的值引起的值,因此标准的非差异RL方法可能会失败,尤其是在对复杂和多模式数据分布进行培训时 ...
0 0 0 2025/06/09 arXiv:2006.04779v3 wang12
我们描述了一种使用大语言模型(LLMS)自动化Java方法的单元测试生成的新方法。现有的基于LLM的方法依赖于测试方法的样本使用情况(焦点方法)和/或提供焦点方法的整个类别作为输入及其上下文。由于缺乏样本用法,尤其是对于新书面的焦点方法,前一种方法通常是不可行的 ...
0 0 0 2025/06/09 arXiv:2503.05394v1 Cooper111
域的概括(DG)旨在学习一个模型,该模型可以很好地概括地看不到目标域,利用多个源域而无需重新训练。大多数现有的DG作品基于卷积神经网络(CNN)。但是,卷积内核的本地操作使该模型过多地关注本地表示(e ...
0 0 0 2025/06/09 arXiv:2303.11674v2 Urleaves

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)