有两种主要类型的不确定性可以建模。剧烈的不确定性捕获观察中固有的噪声。另一方面,认知不确定性解释了模型中的不确定性 - 不确定性可以在给定足够数据的情况下解释 ...
AI正在经历范式转移,随着模型的兴起(例如Bert,Dall-E,GPT-3),该模型经过大规模的大规模训练,并且可以适应广泛的下游任务 ...
尽管现有的基准测试探测了各个领域的大语言模型(LLMS)的推理能力,但它们主要评估被动推理,为模型提供了达到解决方案所需的所有信息。相比之下,LLM必须与外部系统相互作用以获取缺失的证据或数据HA的积极推理很少受到系统的关注。为了解决这一短缺,我们提出了AR Bench,这是一种新颖的基准测试,旨在评估LLM的主动推理技能 ...
自训练,自我监督预处理和无监督的学习方面的最新进展使表演良好的语音识别系统无需任何标记的数据。但是,在许多情况下,有针对相关语言的标记数据,这些方法没有被这些方法使用。本文通过微调验证的WAV2VEC 2进行微调,扩展了对零击的跨语性转移学习的先前工作 ...
最近,大型语言模型(LLM)引起了广泛的任务,特别是在文本分析中的出色表现引起了极大的关注。但是,由于对复杂预测任务的时间序列数据的依赖,金融部门提出了一个明显的挑战。在这项研究中,我们介绍了一个名为LLMFACTOR的新型框架,该框架采用顺序知识引导提示(SKGP)来识别使用LLMS影响库存运动的因素 ...
测试时间适应(TTA)旨在使用未访问源数据的未标记的测试数据来解决分配变化。在多模式数据的上下文中,比单峰数据(例如多种模式和缺失方式的同时损坏)比单峰数据更复杂的噪声模式。此外,在现实世界中,来自不同分配转移的损坏总是混合的 ...
从类似形式的文档(例如发票,采购订单,账单和财务文件)中提取字母数字数据,通常是通过视觉(OCR)和学习算法或整体管道来执行的,具有系统性改进的潜力。我们提出了一个代理AI系统,该系统利用大型语言模型(LLM)代理和强化学习(RL)驱动器代理来自动化一致,在LLM推理不确定性下进行自我改善提取。我们的工作突出了基于LLM的提取的局限性,并引入了一个模块化的多代理框架,该框架具有特定于任务的提示以及 ...
扩散模型在增强学习(RL)方面具有广泛的关注(RL),以表达其强大的表现力和多模式。已经验证的是,利用扩散策略可以通过克服单峰政策(例如高斯政策)的局限性,并为代理提供增强的勘探能力,从而显着改善RL算法在持续控制任务中的性能。但是,现有的作品主要集中在离线RL中扩散策略的应用,而将其纳入在线RL中的情况较少 ...