大型语言模型(LLMS)在解决自然语言描述的计划任务方面已显示出希望,但是它们的直接使用通常会导致推理和幻觉不一致。尽管混合LLM-Symbolic计划管道已成为更强大的替代方案,但它们通常需要大量的专家干预来完善和验证生成的动作模式。它不仅限制了可扩展性,而且还引入了偏见解释的潜力,因为一个专家对模棱两可的自然语言描述的解释可能与用户的实际意图不符 ...
大型语言模型(LLM)等基础模型的最新进展将它们推向了推荐系统(RS)的最前沿。尽管有效用,但人们越来越担心LLM可能会无意中将社会刻板印象永久存在,从而导致不公平的建议。由于公平性对于RS至关重要,因为许多用户将其用于决策和需求实现,因此本文着重于基于LLM的建议的用户端公平性,在此论文中,用户可能需要推荐系统以对性别或年龄等特定敏感功能保持公平 ...
自动化规划和调度是人工智能(AI)的增长领域之一,在该领域中提到LLM已受欢迎。基于对126篇论文的全面评论,本文根据LLMS在解决计划问题的各个方面的独特应用中研究了八个类别:语言翻译,计划产生,模型构建,多代理计划,互动计划,互动式计划,启发式方法优化,工具集成,工具集成和脑力启发计划。对于每个类别,我们阐明了所考虑的问题和现有差距 ...
注意力作为无处不在的 Transformer 架构的核心层,是大型语言模型和长上下文应用的瓶颈。闪存详细阐述了一种通过最小化内存读/写来加速gpu注意力的方法。然而,它尚未利用最新硬件中的新功能,flashattention-2在h100 gpu 35%的利用率... ...
最先进的新型视图合成方法,例如3D高斯脱落(3DG),可实现出色的视觉质量。虽然可以使用栅格化可以有效地渲染3DG及其变体,但许多任务都需要访问基础3D表面,由于该表示的稀疏和明确的性质,这仍然具有挑战性。在本文中,我们介绍了G2SDF,这是一种新颖的方法,该方法通过将神经隐式签名距离场(SDF)集成到高斯分裂框架中来解决此限制 ...
联合学习(FL)旨在通过使客户能够协作构建机器学习模型而无需共享私人数据来保护数据隐私。最近的作品表明,FL期间交换的信息受到基于梯度的隐私攻击,因此,采用了各种隐私方法来阻止此类攻击。但是,这些防御方法要么引入数量级,要么更多的计算和通信开销(e ...
低光图像增强(LLIE)任务倾向于恢复损坏的低光图像的细节和视觉信息。大多数现有方法通过SRGB和HSV颜色空间上的深神经网络(DNN)学习低/正常光图像之间的映射函数。然而,增强涉及放大图像信号,并将这些颜色空间应用于具有低信噪比比率的低光图像,可以将灵敏度和不稳定性引入增强过程中 ...
近年来,AI模型的爆炸性增长。在GPU及其苛刻的服务要求上托管AI服务的高昂成本,使其及时且具有挑战性,以降低服务成本并保证服务质量。尽管长期以来一直为现场实例提供了很大的折扣,但现场先发制人阻止用户在服务AI模型时使用它们来主机模型复制品 ...