对预训练的大语言模型(LLMS)的联合微调可以使各种数据集的特定于任务适应,同时保留数据隐私。但是,客户资源中的较大模型大小和异质性构成了重大的计算和通信挑战。为了解决这些问题,在本文中,我们提出了一种新型的异质适应性联合低级适应性(LORA)微调LLM框架(HAFL) ...
主动学习(AL)试图通过标记最少的样本来最大程度地提高模型的性能增益。深度学习(DL)对数据很贪婪,需要大量数据供应以优化大量参数,以便模型学习如何提取高质量特征。近年来,由于互联网技术的快速发展,我们处于信息洪流的时代,并且有大量数据 ...
多模式大型语言模型(MLLM)在各种视觉理解任务中表现出了显着的能力。但是,MLLM仍在精细粒度的视觉识别(FGVR)中挣扎,该识别旨在从图像中识别下属级别类别。这可能会对MLLM的更先进的功能产生负面影响,例如以对象为中心的视觉问题回答和推理 ...
最近的一系列作品应用机器学习技术来协助或重建基于成本的查询优化器DBMS。在某些基准中表现出优势,但它们的缺陷,例如 ...
与基础模型的持续学习(CL)最近成为一种有希望的范式,以利用在预训练期间获得的丰富知识来解决顺序任务。但是,现有的基于及时和低级别适应性的基于劳拉(LORA)的方法通常需要扩展提示/洛拉池或保留以前任务的样本,随着任务数量的增长,这会带来重大的可伸缩性挑战。为了解决这些局限性,我们提出了用于类增量学习的可扩展解耦LORA(SD-LORA),该学习不断地分开lora组件的大小和方向而无需彩排的学习 ...
事实证明,检索增强生成(RAG)在提高知识密集型任务中语言模型的生成性能方面非常有效。但是,现有的RAG框架不加选择地进行检索或依靠刚性的单层分类器来选择检索方法,从而导致效率低下和跨不同复杂性查询的次优性能。为了应对这些挑战,我们提出了一个基于加强学习的框架,该框架动态选择了基于查询复杂性的最合适的检索策略 ...
端到端的自动驾驶旨在直接从原始传感器中产生计划轨迹。当前,大多数方法都将感知,预测和计划模块集成到一个完全可区分的网络中,有望实现出色的可扩展性。但是,这些方法通常依赖于在感知模块中对在线地图的确定性建模来指导或限制车辆计划,这可能包含错误的感知信息并进一步损害计划的安全性 ...
多模式学习的出现带来了文档AI的重大改进。现在将文档视为多模式实体,并将文本和视觉信息纳入下游分析。但是,在这个空间中的作品通常集中在文本方面,以视觉空间为辅助信息 ...