分段任意模型(SAM)需要劳动密集型数据标记。我们提出了无监督Sam(unsam),用于快速、自动的全图像分割 ...
连续的离线增强学习(CORL)结合了连续和离线增强学习,使代理能够从静态数据集中学习多个任务,而无需忘记先前的任务。但是,Corl在平衡稳定性和可塑性方面面临挑战。现有的方法是采用参与者批判性结构和经验重播(ER),遭受分配变化,低效率和知识共享的障碍 ...
最近,大型语言模型(LLM)在自然语言处理(NLP)领域取得了巨大成功,推动了不断增长的需求,以将其部署从云到边缘设备扩展。但是,在资源受限的边缘设备上部署LLM会带来重大挑战,包括(1)密集计算和巨大的模型尺寸,(2)自动回归生成过程引入的巨大内存和带宽需求,以及(3)处理长序列的可扩展性有限。为了应对这些挑战,我们提出了Accllm,这是一个全面的加速框架,可以通过算法和硬件共同设计实现高效且 ...
时间图神经网络(TGNN)在时间图建模中表现出色。但是,现实世界中的时间图通常具有丰富的文本信息,从而产生了时间文本属性图(TTAG)。动态文本语义和不断发展的图形结构的这种组合引入了增强的复杂性 ...
持续适应对于一般的自治药物至关重要。例如,通过技能曲目预处理的家用机器人仍然必须适应每个家庭特定的看不见的任务。由此激励的是,基于语言模型中参数有效的微调,先前的作品探索了轻巧的适配器以适应预验证的策略,该策略可以从预读阶段中保留学习的功能并展示良好的适应性表现 ...
数十亿个规模的大语言模型(LLMS)需要在具有大存储HBM和丰富计算能力的昂贵服务器级GPU上部署。随着LLM辅助服务的流行,实现了对预算友好硬件的成本效益的LLM推断成为趋势。广泛的研究将LLM参数从昂贵的GPU转移到主机存储器 ...
对于当前的视觉模型来说,了解讽刺和幽默是一项具有挑战性的任务。在本文中,我们提出了讽刺图像检测的具有挑战性的任务(检测图像是讽刺是讽刺性的),理解(产生图像背后的原因)和完成(给定的一半图像,从给定的2个选项中选择了另一半,从而使完整的图像是讽刺的讽刺是讽刺性的),并释放了高级数据的YESBUT YESBUT,包含254个符合254的图像,并包含25434的图像。不同的艺术风格,以评估这些任务。数 ...
图形神经网络(GNN)通过建模近年来实体和关系如何相互作用,在知识图完成(KGC)方面取得了巨大成功。但是,对预测事实的解释并未引起必要的关注。对基于GNN的KGC模型结果的正确解释提高了模型透明度,并帮助研究人员开发更可靠的模型 ...