自2023年以来,基于矢量量化(VQ)的离散生成方法已迅速主导人类运动,主要超过了基于扩散的连续生成方法。但是,基于VQ的方法具有固有的局限性。代表连续的运动数据是有限的离散 Token 会导致不可避免的信息丢失,降低生成动作的多样性,并限制其作为运动先验或发电指导的有效功能的能力 ...
0 0 0 2025/05/06 arXiv:2411.16575v1 qinhui_cici
持续学习的目标是找到一个模型,该模型解决了多个学习任务,这些任务依次介绍给学习者。在这种情况下,一个关键的挑战是学习者可能会在学习新任务时忘记如何解决以前的任务,这是一种被称为灾难性遗忘的现象。为了应对这一挑战,已经提出了许多实用方法,包括基于内存的,基于正则化和基于扩展的方法 ...
0 0 0 2025/05/06 arXiv:2305.00316v2 wide-sky
我们提出了图形耦合振荡器网络(GraphCon),这是一个新颖的图形学习框架。它基于普通微分方程(ODE)的二阶系统的离散化,该系统建模了非线性受控和阻尼振荡器网络,并通过基础图的邻接结构结合。我们框架的灵活性允许任何基本的GNN层(e ...
0 0 0 2025/05/06 arXiv:2202.02296v2 tuxiaolv
生成推荐自动加入对项目标识符的生成,以推荐潜在的项目。现有方法通常采用一对一的映射策略,其中每个项目由单个标识符表示。但是,该方案提出了问题,例如低频项目的次优语义建模和 Token 序列数据的多样性有限 ...
0 0 0 2025/05/06 arXiv:2504.04400v2 linson.su
大型语言模型(LLM)具有明显的高级情感分析,但是它们固有的不确定性和可变性构成了可靠和一致的结果的关键挑战。本文系统地探讨了基于LLM的情感分析中的模型变异性问题(MVP),其特征是不一致的情感分类,极化以及由随机推理机制,迅速灵敏度以及训练数据中的偏见引起的不确定性。我们分析了MVP的核心原因,展示了说明性示例和案例研究以突出其影响 ...
0 0 0 2025/05/06 arXiv:2504.04462v1 KinomotoMio
大型语言模型(LLM)展示了跨各个领域的复杂任务中出色的功能,这是由于基本的问题解答(QA),如今它们被用作不熟悉内容的决策助理或解释者。但是,由于特定领域的数据稀疏性或模型的幻觉问题,它们并不总是正确的。鉴于此,我们应该相信LLM的回答多少?本文提出了一种新颖的方法,可以通过构建构成概率的方向图来评估捕获方向不稳定的不确定性,并且鉴于我们对构造的有向图的不对称特性进行了创新的随机行走拉普拉斯主义 ...
0 0 0 2025/05/06 arXiv:2407.00994v2 KinomotoMio
估计大语言模型〜(LLM)响应的不确定性仍然是一个至关重要的挑战。虽然最近的贝叶斯方法在通过低级别的重量更新来量化不确定性方面表现出有效性,但它们通常需要复杂的微调或训练后程序。在本文中,我们提出了无培训的贝叶斯化〜(TFB),这是一个新颖的框架,将现有的现有训练有素的洛拉适配器转变为贝叶斯的适配器,而无需额外的培训 ...
0 0 0 2025/05/06 arXiv:2412.05723v1 KinomotoMio
通过对微调模型所学到,遗忘以及如何信任其预测的一般了解,调整大型语言模型可以改善特定任务的性能。我们使用计算有效的低级适应集合来得出具有后近似的微调LLM的原则不确定性定量。我们使用基于Mistral-7b的低级适应合奏分析了三个常见的多项选择数据集,并在微调过程中和之后对不同目标域的感知复杂性和模型疗效得出定量和定性结论 ...
0 0 0 2025/05/06 arXiv:2402.12264v1 KinomotoMio

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)