以高级语义决策为指导的可控轨迹生成,称为元行动,对于自主驾驶系统至关重要。现有框架的一个重要局限性是它们依赖于固定的将来时间间隔分配的不变元行动,从而导致时间误差与实际行为轨迹。这种未对准导致规定的元行动与所得轨迹之间的关联,破坏了任务连贯性和限制模型性能 ...
0 0 0 2025/09/30 arXiv:2505.23612v1 暖暖yiyi
由于模型过度自信,检测到分布(OOD)数据是机器学习的一个关键挑战,通常没有意识到其认识论限制。我们假设``神经崩溃'',这是一种影响训练超出损失收敛的模型的分布数据的现象,也会影响OOD数据。为了从这个相互作用中受益,我们引入了NECO,这是一种新型的事后检测方法,它利用``神经崩溃''的几何特性和主要成分空间的几何特性来识别OOD数据 ...
0 0 0 2025/09/30 arXiv:2310.06823v3 19396386025
我们提出了Hunyuanimage 3.0,这是一种本机的多模式模型,在自动回归框架内统一了多模式的理解和生成,其图像生成模块可公开可用。实现Hunyuanimage 3 ...
0 0 1 2025/09/30 arXiv:2509.23951v1 suxuefeng
扩散语言模型(DLM)已被视为自回归语言模型的有前途的竞争对手。但是,扩散语言模型长期以来一直受到缓慢的推论来限制。一个核心挑战是,他们的非自动回忆架构和双向注意力排除了加速解码的键值缓存 ...
0 0 0 2025/09/30 arXiv:2505.15781v1 hwrabbit
最近,预先训练的语言模型BERT(及其可靠优化的版本Roberta)吸引了自然语言理解(NLU)的广泛关注,并在各种NLU任务中实现了最先进的准确性,例如情感分类,自然语言推断,语义推断,语义上的文本相似性和问题答案。受Elman的线性探索工作的启发[8],我们通过将语言结构纳入预训练中,将BERT扩展到新的模型structbert。具体来说,我们将训练构造构成两个辅助任务,以充分利用单词和句子的 ...
0 0 0 2025/09/30 arXiv:1908.04577v3 feixiang_peng
长期以来,自回归模型(ARM)一直占据了大型语言模型的景观。最近,以基于扩散的大语言模型(DLLM)的形式出现了一个新的范式,该模型通过迭代地剥落蒙版段来生成文本。这种方法显示出很大的优势和潜力 ...
0 0 20 2025/09/30 arXiv:2506.06295v1 hwrabbit
理解和复制现实世界是人工通用智能(AGI)研究的关键挑战。为了实现这一目标,许多现有的方法,例如世界模型,旨在捕获有关物理世界的基本原则,从而实现更准确的模拟和有意义的互动。但是,当前方法通常将不同的方式视为不同的模态,包括2D(图像),视频,3D和4D表示,作为独立域,忽略了它们的相互依赖性 ...
0 0 0 2025/09/30 arXiv:2503.04641v2 SummeRain
扩散语言模型具有平行的 Token 产生和固有的双向性,与自回归方法相比,有望更有效,更强大的序列建模。但是,最新的扩散模型(例如 ...
0 0 27 2025/09/30 arXiv:2505.21467v1 hwrabbit

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)