生成图形结构化数据需要学习图形的基础分布。然而,这是一个具有挑战性的问题,先前的图生成方法要么无法捕获图形的置换率属性,要么无法充分对节点和边缘之间的复杂依赖性进行建模,这对于生成真实世界图(例如分子)至关重要。为了克服此类局限性,我们为具有连续时间框架的图表提出了一种基于分数的新型生成模型 ...
大型语言模型在各种任务中表现出了巨大的表现。内在的学习 - 在获得许多示威游行后的任务改进的能力 - 被视为取得成功的主要贡献者之一。在本文中,我们证明了大语模型的内在学习能力可以通过内在学习本身递归改进 ...
在有限字段$ \ mathbb {f} _q $上的快速傅立叶变换(FFT)计算给定多项式的评估小于$ n $的$ n $ dinters评估点,$ \ mathbb {f} _q $。如果$ q $或$ q-1 $是一个平稳的数字,则分裂和互动方法会导致已知最快的FFT算法。根据评估点形式集的组类型,这些算法被归类为乘法(Comp的数学 ...
自然语言处理(NLP)推论正在看到移动应用程序采用的提高,在此,对于至关重要的保留用户数据隐私和避免网络往返的推论是理想的。但是,NLP模型的前所未有的大小强调延迟和内存,在移动设备的两个关键资源之间产生张力。为了满足目标延迟,将整个模型保存在内存中会尽快启动执行,但将一个应用程序的内存足迹增加了几次,将其收益限制为仅在被移动内存管理回收之前的一些推论 ...
对机器行为的标准化和量化评估是理解LLM的症结所在。在这项研究中,我们通过利用人格理论作为研究机器行为的工具,从心理测量研究中汲取灵感。作为对人类行为的哲学追求,对个性的研究研究了个人在思维,感觉和行为方面的差异 ...
凭经验证明,扩展语言模型可以提高各种下游任务的性能。但是,如果我们在某些任务上观察到较差的表现(“逆缩放”),这将表明缩放还可以鼓励与人类偏好失误的行为。逆缩放奖(McKenzie等人 ...
对象检测和细分被广泛用于计算机视觉应用中,但是诸如Yolo系列的传统模型虽然有效而准确,但受预定义类别的限制,从而阻碍了在开放的方案中的适应性。最近的开放式方法利用文本提示,视觉提示或迅速的范式来克服这一点,但由于高计算需求或部署复杂性而导致的性能和效率之间通常会妥协。在这项工作中,我们介绍了Yoloe,该YOLOE在单个高效的模型中整合了跨不同开放及时机制的检测和分割,从而实现了任何事物 ...
在各种情况下,内在学习(ICL)促进了大型语言模型(LLM),在各种情况下都表现出壮观的新兴功能。不幸的是,引入演示很容易迅速爆炸,为硬件带来了重大负担。此外,随机示范通常在ICL方面取得了有限的改进,需要在可访问的候选人中进行演示选择 ...