在多任务学习(MTL)中,对联合模型进行了培训,可以同时对几个任务进行预测。联合培训降低了计算成本并提高数据效率;但是,由于这些不同任务的梯度可能需要冲突,因此训练MTL的联合模型通常比其相应的单任务同行产生的性能低。减轻此问题的一种常见方法是使用特定的启发式方法将每个任务梯度组合到联合更新方向上 ...
我们为使用神经序列模型提供了两个用于多任务学习的体系结构。我们的方法允许动态学习不同任务之间的关系,而不是像以前的工作那样使用临时的预定义结构。我们采用了通过消息的图形神经网络的想法,并提出了一个通用\ textbf {图形多任务学习}框架,其中不同的任务可以以有效且可解释的方式相互通信 ...
联合学习(FL)允许多个参与者通过在仅交换模型更新的同时保持其数据集的本地来协作训练机器学习模型。 las,这不一定没有隐私和鲁棒性,例如 ...
大型语言模型(LLM)由于依赖静态培训数据而与幻觉和过时的知识斗争。通过集成外部动态信息来增强事实和更新的基础,检索增强的生成(RAG)通过整合外部动态信息来减轻这些问题。多模式学习的最新进展导致了多模式抹布的发展,并结合了多种模式,例如文本,图像,音频和视频,以增强生成的输出 ...
在多任务学习中,共同解决了多个任务,在它们之间共享归纳偏见。多任务学习本质上是一个多目标问题,因为不同的任务可能需要冲突,因此需要权衡。一个常见的妥协是优化一个替代目标,该目标可以最大程度地减少按任务损失的加权线性组合 ...
绝大多数深层模型都使用多个梯度信号,通常与多个损失条款的总和相对应,以更新一组共享的可训练权重。但是,这些多个更新可以通过将模型置于冲突的方向上来阻碍最佳培训。我们提出了梯度符号辍学(GradDrop),这是一种概率掩蔽过程,该过程根据其一致性水平在激活层中采样梯度 ...
在许多机器学习任务中,输入变量和输出变量之间的关系通常是单调的,包括严格的单调和隐式单调关系。保持单调性的传统方法主要依赖于构建或正则化技术,而本文表明,严格的单调概率问题可以看作是可观察到的收入变量和潜在成本变量之间的部分订单。这种观点使我们能够将单调性挑战重新制定为建模潜在的成本变量 ...
我们提出了一种拟合Lyman-$ \ alpha $(ly $ \ alpha $)森林三维(3D)相关功能的新方法,以测量Alcock-Paczynski(AP)效应。我们的方法保留了重子声学振荡(BAO)分析的鲁棒性,同时还提供了从更广泛的量表中提供额外的宇宙学信息。我们使用LY $ \ alpha $自动相关及其与类星体的互相关来计算黑暗能谱仪器(DESI)的理想化预测,并显示这种类型的分析 ...