从没有标记的时间序列数据的具有时间动态的未标记的时间序列数据学习是一项非常具有挑战性的任务。在本文中,我们通过时间和上下文对比(TS-TCC)提出了一个无监督的时间序列表示学习框架,以从未标记的数据中学习时间序列表示。首先,通过使用弱和强的增强,将原始的时间序列数据转化为两个不同但相关的视图 ...
大型语言模型(LLM)的最新进展使在包括医疗,财务和时空领域在内的各种现实世界应用中推理的时间序列推理实现了空前的功能。但是,现有方法通常集中在特定于任务的模型自定义上,例如预测和异常检测,同时忽略了数据本身(称为时间序列原始),这对于深入推理至关重要。该立场论文提倡与LLMS接近时间序列推理的基本转变:优先考虑以特定于任务的模型自定义为基于时间序列数据的固有原始图的对齐范式 ...
近年来,大型语言模型(LLM)在时间序列预测(TSF)中的应用引起了研究人员的极大关注。这项研究使用GPT-2与模糊时间序列(FTS)和因果图提出了一个名为CGF-LLM的新框架,以预测多元时间序列,标志着文献中的第一个这样的架构。关键目的是通过模糊化和因果分析的并行应用将数值时间序列转换为可解释的形式,从而使语义理解和结构洞察力成为验证的GPT-2模型的输入 ...
通过有效纳入用户互动历史记录来个性化语言模型仍然是自适应AI系统开发的核心挑战。尽管大型语言模型(LLMS)与检索增强的生成(RAG)相结合提高了事实准确性,但它们通常缺乏结构性记忆,并且无法在复杂的长期相互作用中扩展。为了解决这个问题,我们提出了一个基于知识图的灵活外部存储框架,该框架自动由LLM本身构造和更新,并能够以多种格式编码信息,包括节点,三胞胎,高阶命题和情节痕迹 ...
脚本是从文本中提取的一种结构化知识,其中包含一系列事件。基于此类知识,脚本事件预测旨在预测后续事件。为此,应考虑事件的两个方面,即事件描述(i ...
近年来,在深度学习和神经网络体系结构的改善驱动的驱动到近年来,文本到语音(TTS)系统已经取得了重大进步。将输出语音视为数据分布,以前的方法通常在流匹配框架内采用传统的语音表示,例如波形或频谱图。但是,这些方法有局限性,包括忽略各种语音属性和由于培训过程中引入的其他限制而产生的高计算成本 ...
零击文本对语音(TTS)旨在合成高质量的语音,该语音仅使用一个简短的参考样本模仿看不见的说话者的声音,不仅需要说话者的适应性,而且还需要对韵律属性进行准确的建模。基于语言模型,扩散和流匹配的最新方法在零射TT中显示出令人鼓舞的结果,但仍遭受缓慢的推理和重复伪像。离散的编解码器表示已被广泛用于语音综合,最近的工作开始探索纯离散设置中的扩散模型,这表明了语音合成的离散生成建模的潜力 ...
用于图形用户界面(GUI)的自主代理的开发提出了人工智能的主要挑战。尽管本地代理模型的最新进展通过终端学习统一,推理,行动和记忆表现出了希望,但在数据可扩展性,多转弯加固学习(RL),GUI-FOLLY操作的局限性和环境稳定性中仍然存在开放性问题。在这份技术报告中,我们提出了一个以GUI为中心的代理模型UI-TARS-2,该模型通过系统培训方法来解决这些挑战:可扩展数据生成的数据飞轮,稳定的多转移 ...