在医疗保健和气候科学等领域,对不规则多元时间序列(IMT)的预测是一项关键任务。但是,这项任务面临两个重大障碍:1)IMT中固有的非均匀性和缺少数据使时间动态的建模复杂化,而2)现有方法通常依赖于计算昂贵的体系结构。为了解决这些双重挑战,我们介绍了一个普遍有效的预测框架APN ...
我们提出了一个通用模型不合时宜的学习框架,具有反事实样本合成(CCSS),用于建模神经网络输出与数值之间的单调性,这对于建议系统的解释性和有效性至关重要。 CCSS通过两个阶段的过程对单调性进行建模:合成反事实样本并与反事实样本进行对比。这两种技术自然集成到模型不足的框架中,形成了端到端的训练过程 ...
BusyBox是一款开源软件,将,300多个基本linux命令捆绑到一个可执行文件中,在基于linux busybox中的漏洞可能会产生深远的后果,busybox的广泛使用的推动下,深入研究了它的分析... ...
在没有超对称性的情况下,模块化形式不必是模量$ \ tau $的全态函数。使用这个想法,我们使用多谐$ MAA \ beta $表单构建一个非苏格对称框架。在这种方法中,Yukawa耦合不再是$ \ tau $中严格地塑形的,而是融合了霍明型和非晶状体成分 ...
大型语言模型(LLM)见证了语言理解,产生和推理的新兴挑战和能力的快速增长。尽管在基于自然语言处理的应用中表现出色,但LLM却容易受到不良和不稳定的行为的影响,包括幻觉,不可靠的推理和有害内容的产生。这些有缺陷的行为破坏了对LLM的信任,并在实际应用中采用了巨大的障碍,例如法律援助和医学诊断,即精确,可靠性和道德考虑是至关重要的 ...
大规模的深度学习培训是资源密集的且耗时的,通常在数百或数千个GPU上进行数周或数月的时间。有效的检查点对于运行这些工作负载至关重要,尤其是在共享计算资源的多租户环境中,抢占或中断很常见。但是,透明和统一的GPU快照特别具有挑战性,因为CPU和GPU之间的硬件体系结构差异,包括内存子系统,动态并行性和线程同步 ...
大语言模型(LLM)的幻觉问题越来越引起人们的注意。用外部知识增强LLM是解决此问题的有前途解决方案。但是,由于隐私和安全问题,大量与任务相关的知识仍然在各种“孤岛”中分散和隔离,这使得难以访问 ...
Esperanto和Quenya等构建的语言(Conlangs)在艺术,哲学和国际交流中扮演着各种角色。同时,大规模的基础模型彻底改变了文本,图像及以后的创意产生。在这项工作中,我们利用现代LLM作为端到端Conlang创建的计算创造力有助于 ...