尽管通过数据驱动的智能故障诊断技术可以取得显着的结果,但它们以相同的培训和测试数据分布以及足够的标记数据为前提。在实际情况下通常存在各种操作状态,从而导致域转移问题,从而阻碍了故障诊断的有效性。尽管最近无监督的域适应方法可以诊断跨域故障诊断,但他们努力从多个源域中有效利用信息并同时在多个目标域中实现有效的诊断故障 ...
0 0 0 2025/05/16 arXiv:2310.14790v2 15966829631
人们普遍认为,视觉 Transformer 模型需要复杂的正则化技术才能在Imagenet-1k量表数据上脱颖而出。令人惊讶的是,我们发现事实并非如此,并且标准数据增加就足够了。本说明对原始视觉 Transformer (VIT)香草训练设置进行了一些少量修改,这些设置极大地改善了普通VIT模型的性能 ...
0 0 0 2025/05/16 arXiv:2205.01580v1 zhuyuanxiang
基于生成预训练 Transformer (GPT)的大型语言模型(LLM)在各种下游任务中表现出了出色的有效性。受到GPT的进步的启发,我们提出了一种新颖的方法,该方法将GPT的概念扩展到点云,解决了与混乱属性,低信息密度和任务差距相关的挑战。具体而言,提出了点云自动回归生成任务以预先训练 Transformer 模型 ...
0 0 0 2025/05/16 arXiv:2305.11487v2 DamnMan
作为智能运输系统中的关键组成部分,交通流量预测最近引起了人工智能领域(AI)的广泛研究兴趣,随着大量交通流动性数据的可用性越来越大。它的主要挑战在于如何整合各种因素(例如时间规则和空间依赖性)来推断交通流量的演变趋势。为了解决这个问题,我们提出了一个称为Actentive交通流机(ATFM)的统一神经网络,该网络可以有效地学习流量流动流的空间特征表示,并具有注意机制 ...
0 0 0 2025/05/16 arXiv:1909.02902v4 psyduck1
Code LLM已成为一个专业的研究领域,其出色的研究致力于通过对预训练的模型进行微调来增强模型的编码功能。以前的微调方法通常是针对特定的下游任务或场景量身定制的,这意味着针对每个任务进行单独的微调,需要广泛的培训资源并在部署和维护方面构成挑战。此外,这些方法未能利用不同代码相关的任务之间的固有互连性 ...
0 0 0 2025/05/16 arXiv:2311.02303v1 千禧狸花
在口语对话中,即使当前两个转弯是同一句子,他们的回答在以不同的样式说话时仍可能有所不同。口语风格包含副语言和韵律信息,标志着文本和语音方式之间最重要的差异。当使用仅文本llms对话模型时,仅文本LLM不能根据当前回合的口语方式给出不同的响应 ...
0 0 0 2025/05/16 arXiv:2402.12786v2 yanyusong
大型视觉语言模型(LVLM)已改进了文档的理解功能,从而可以处理复杂的文档元素,更长的上下文和更广泛的任务。但是,现有的文档理解基准仅限于处理少数页面,并且无法对布局元素定位进行全面分析。在本文中,我们首先定义了三个主要任务类别:长文档的理解,数值推理和交叉元件定位,然后提出了一个全面的基准测试,Longdocurl,在上面的三个主要任务中集成了三个主要任务,并包括20个基于不同的主要任务分类的子 ...
0 1 0 2025/05/16 arXiv:2412.18424v2 王阳明
现实世界中的破布应用程序经常遇到长篇文化输入方案,其中冗余信息和噪声会导致推理成本较高和降低性能。为了应对这些挑战,我们提出了Longrefiner,这是一种有效的插件炼油厂,利用长文档的固有结构特征。 Longrefiner采用双层查询分析,分层文档结构以及通过在单个基础模型上进行多任务学习的自适应改进 ...
0 0 0 2025/05/16 arXiv:2505.10413v1 xywang

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)