使用嘈杂标签的学习(LNL)旨在在面对嘈杂标签的数据时改善模型概括,现有方法通常假设嘈杂的标签来自已知类别,称为封闭设置的噪声。但是,在实际情况下,来自类似未知类别的嘈杂标签,即 ...
在交互式闭环交通模拟中实现现实主义和可控性仍然是自主驾驶中的关键挑战。数据驱动的仿真方法重现了逼真的轨迹,但遭受了闭环部署的协变量转移,并通过简化的动态模型复杂化,这些模型进一步降低了可靠性。相反,基于物理的仿真方法增强了可靠且可控的闭环相互作用,但通常缺乏专家演示,损害了现实主义 ...
深层神经网络(DNN)在各种智能任务中取得了巨大的成功,但由于数据移动瓶颈而导致的推理执行遇到了绩效和能源挑战。我们介绍了DataMaEstro,这是一个多功能,高效的数据流单元,它将脱钩的访问/执行体系结构带到DNN数据流加速器以解决此问题。 DataMaEstro支持灵活和可编程的访问模式,以适应各种工作量类型和数据流程,结合了细粒度的预取,并寻址模式切换到减轻银行冲突,并启用可自定义的在线数 ...
机器学习(ML)应用程序的迅速增长,再加上其不断增加的模型大小和推理能量足迹,对专门的ML硬件体系结构产生了强烈的需求。已经探索和实施了许多ML加速器,主要是为了增加每个单位区域的任务级吞吐量并减少任务级别的能耗。本文调查了针对这些目标的关键趋势,以实现更有效的ML加速器,并提供了一个统一的框架,以了解计算和内存技术/体系结构如何相互作用以提高系统级别效率和性能 ...
正在创建AI助手,以帮助软件工程师执行各种与编码相关的任务,例如编写,记录和测试代码。我们描述了WATSONX代码助理(WCA)的使用,这是IBM内部部署的LLM驱动的编码助手。通过调查两个用户同类(n = 669)和未修饰的可用性测试(n = 15),我们研究了开发人员对WCA的经验及其对生产率的影响 ...
先前的研究表明,可以通过自我反省来改善大语言模型(LLM)的推理能力,即让LLM反思自己的输出,以识别和纠正最初响应中的错误 ...
大型语言模型(LMS)虽然强大,但并不能免疫错误,但难以训练。我们的目标是让LM在部署后继续改善,而无需再进行重新培训,并使用用户的反馈。我们的方法将LM与(i)越来越多的案例结合,在这些情况下,用户确定了输出错误,并提供了有关如何纠正它的一般反馈(ii)校正模型,该模型训练以将此一般反馈转化为特定的编辑以修复模型输出 ...
模型合并旨在将特定于任务的专家模型集成到统一体系结构中,同时保留多任务概括功能,但是组成模型之间的参数干扰经常引起性能下降。尽管先前的工作探讨了许多合并策略,但是解决干扰没有其他数据进行再培训或测试时间计算仍然具有挑战性。在本文中,我们从理论上证明了线性层的任务向量构成了其相应输入的近似线性子空间 ...