由于对现实世界的封闭式和静态的观点,现有的点云语义细分网络无法识别未知类别并更新知识,这将诱使智能代理做出错误的决定。 To address this problem, we propose a Probability-Driven Framework (PDF) for open world semantic segmentation that includes (i) a lightweigh ...
大规模预训练的普及促进了医学基础模型的发展。但是,一些研究表明,尽管基础模型具有强大的一般特征提取能力,但它们在特定任务上的性能仍然不如特定于任务的方法。在本文中,我们探讨了一种名为``知识分解''的新观点,以提高特定医疗任务的绩效,该任务将基础模型解构为多个轻量级专家模型,每个模型都专门针对特定任务,目的是改善专业化,同时减轻资源支出 ...
分段任意模型(SAM)需要劳动密集型数据标记。我们提出了无监督Sam(unsam),用于快速、自动的全图像分割 ...
连续的离线增强学习(CORL)结合了连续和离线增强学习,使代理能够从静态数据集中学习多个任务,而无需忘记先前的任务。但是,Corl在平衡稳定性和可塑性方面面临挑战。现有的方法是采用参与者批判性结构和经验重播(ER),遭受分配变化,低效率和知识共享的障碍 ...
最近,大型语言模型(LLM)在自然语言处理(NLP)领域取得了巨大成功,推动了不断增长的需求,以将其部署从云到边缘设备扩展。但是,在资源受限的边缘设备上部署LLM会带来重大挑战,包括(1)密集计算和巨大的模型尺寸,(2)自动回归生成过程引入的巨大内存和带宽需求,以及(3)处理长序列的可扩展性有限。为了应对这些挑战,我们提出了Accllm,这是一个全面的加速框架,可以通过算法和硬件共同设计实现高效且 ...
时间图神经网络(TGNN)在时间图建模中表现出色。但是,现实世界中的时间图通常具有丰富的文本信息,从而产生了时间文本属性图(TTAG)。动态文本语义和不断发展的图形结构的这种组合引入了增强的复杂性 ...
持续适应对于一般的自治药物至关重要。例如,通过技能曲目预处理的家用机器人仍然必须适应每个家庭特定的看不见的任务。由此激励的是,基于语言模型中参数有效的微调,先前的作品探索了轻巧的适配器以适应预验证的策略,该策略可以从预读阶段中保留学习的功能并展示良好的适应性表现 ...
数十亿个规模的大语言模型(LLMS)需要在具有大存储HBM和丰富计算能力的昂贵服务器级GPU上部署。随着LLM辅助服务的流行,实现了对预算友好硬件的成本效益的LLM推断成为趋势。广泛的研究将LLM参数从昂贵的GPU转移到主机存储器 ...