推荐系统中的最新建议使用大型语言模型代表及其文本描述的项目。与仅项目ID模型(例如Bert4Rec)相比,它们在标准基准测试中显示出更好的结果。在这项工作中,我们重新审视了经常使用的Bert4Rec基线,并表明,通过进一步的调整,Bert4Rec明显胜过先前报道的数字,在某些数据集中,与最先进的模型具有竞争力 ...
通过有限的硬件进行微调预训练的大型语言模型(LLMS),由于GPU内存限制而带来了挑战。已经提出了各种分布式微调方法来减轻GPU上的内存约束。但是,确定在给定环境中防止GPU的gpu范围内的最有效方法,同时又不清楚 ...
越来越多的研究作品融合了LiDAR和相机信息,以改善自动驾驶系统的3D对象检测。最近,一个简单而有效的融合框架取得了出色的检测性能,在统一的鸟类视图(BEV)空间中融合了LiDAR和相机功能。在本文中,我们提出了一个名为SimpleBev的LiDar-Camera Fusion框架,用于精确的3D对象检测,该框架分别遵循基于BEV的Fusion框架并改进相机和LIDAR编码器 ...
最近,开源大语言模型(LLM)的开发迅速发展。但是,由于数据限制,大多数开源LLM的功能主要集中在英语上。为了解决这个问题,我们介绍了$ \ textit {chat vector} $的概念,以配备预训练的语言模型,并通过简单模型算术进行指导和人为价值对齐 ...
由于语言模型( lm)现在在许多具有挑战性的任务上优于普通人类,因此开发具有挑战性的、高质量的和现实的评估变得越来越困难。我们通过检查 lm 生成解决实际科学研究问题的代码的能力来解决这个问题。结合了数学、物理、化学、生物学和材料科学等16个不同自然科学子领域的科学家和人工智能研究人员的意见 ...
在本报告中,我提出了一个名为\ textIt {ControlFill}的介绍框架,该框架涉及训练两个不同的提示:一个用于在指定的蒙版内生成可行的对象(\ textit {creation}),另一个用于通过扩展背景(\ textit {removal})来填充该区域。在推理阶段,这些学到的嵌入式指南指导一个不需要重型文本编码器的扩散网络。通过调整两个提示的相对意义并采用无分类器指导,用户可以控制 ...
我们提出了Visualbert,这是一个简单而灵活的框架,用于建模广泛的视觉和语言任务。 Visualbert由一堆 Transformer 层组成,该层隐含地将输入文本和相关输入图像中的区域的元素与自我注意解在一起。我们进一步提出了两个视觉上的语言模型目标,用于图像标题数据上的预训练Visualbert ...
基于人类反馈的强化学习 (RLHF) 已成为使大型语言模型 (LLM) 与人类偏好保持一致的关键技术。在 RLHF 实践中,偏好数据在连接人类倾向和 LLM 方面发挥着至关重要的作用。然而,人类对 LLM 输出的偏好的多样化、自然主义数据集的稀缺给 RLHF 以及开源社区内的反馈学习研究带来了巨大的挑战 ...