随着大型云系统(LCS)变得越来越复杂,有效的异常检测对于确保系统可靠性和性能至关重要。但是,缺乏用于基准测试异常检测方法的大型现实世界数据集。为了解决此差距,我们从IBM Cloud中引入了一个新的高维数据集,该数据集已收集到4个以上 ...
视觉语言动作(VLA)模型,尤其是基于扩散的架构,表现出具有体现智能的变革潜力,但受高度计算的严重阻碍,记忆需求源于广泛的固有和推理时间冗余。尽管现有的加速度工作通常针对孤立的效率低下,但这种零碎的解决方案通常无法整体上解决整个VLA管道中各种计算和内存瓶颈,从而限制了实际的可部署性。我们介绍了一种结构化且无训练的推理加速框架,该框架通过凝聚力利用多方面的冗余来系统地消除这些障碍 ...
在各种情况下,自我监督的学习(SSL)作为代表性学习的有效范式在各种策划的数据集上取得了巨大的成功。然而,当面对现实世界应用中的长尾分布时,现有方法仍然很难捕获可转移和稳健的表示形式。传统的SSL方法追求样本级别的均匀性,很容易导致表示学习差异,其中头等阶层主导着特征制度,而尾部类被动地崩溃 ...
在这项工作中,我们对神经网络优化进行实验扎根。在算法的洗发水家族的基础上,我们确定并减轻了三个关键问题,从而导致了拟议的Splus方法。首先,我们发现,当基质内传来长时间时,天真的洗发水很容易发散 ...
对于时间序列分类的进步,回顾之前的研究,大多数现有方法都采用一种常见的学习分类范式, - 一个速率分布编码的目标标签之间的关系。虽然有效,但这种范式掩盖了两个固有的局限性:(:1)用一速分布编码目标类别无法反映标签之间的可比性和相似性,(2)学习跨领域的可迁移模型非常困难,这极大地阻碍了发展普遍服务范式。在这项工作中,这极大地阻碍了发展普遍服务范式。在这项工作中,我们提出了,指示时间,这是一种将时 ...
功能呼叫代理模型的进步需要多种,可靠和高质量的数据集。本文介绍了Apigen,Apigen是一种自动数据生成管道,旨在合成可验证的高质量数据集用于功能称呼应用程序。我们利用Apigen并在21个不同类别中收集3,673个可执行API,以可扩展和结构化的方式生成多样化的功能称呼数据集 ...
合成生成的数据在训练大语言模型中起着越来越大的作用。但是,尽管已经发现合成数据很有用,但研究还表明,经过许多训练迭代后,如果没有适当的策划,它可能会导致LLM的性能,甚至可能“崩溃”。在本文中,我们对这个问题进行了形式化,并开发了一个理论框架,以研究需要多少策划,以确保LLM绩效不断改善 ...
归纳转移学习极大地影响了计算机视觉,但是NLP中的现有方法仍然需要特定于任务的修改和从头开始培训。我们提出了通用语言模型微调(ULMFIT),这是一种有效的转移学习方法,可以应用于NLP中的任何任务,并介绍这是对语言模型进行微调关键的技术。我们的方法在六个文本分类任务上的最新方法大大优于最先进的方法,在大多数数据集上将错误降低了18-24% ...