当前预训练大型语言模型 (LLM) 的趋势主要集中在模型和数据集大小的扩展上。然而,预训练数据的质量是训练强大的 LLM 的重要因素,但它是一个模糊的概念,尚未得到充分表征。因此,我们使用最近提出的 Task2Vec 多样性系数来基础和理解数据质量的形式方面,以超越规模本身 ...
0 0 0 2025/09/24 arXiv:2306.13840v4 manlinghun
交通预测是智能运输系统(ITS)中最重要的基础之一。传统的流量预测方法仅依靠历史流量数据来预测流量趋势,并面临两个主要挑战。 1)对异常事件不敏感 ...
0 0 0 2025/09/24 arXiv:2403.05029v2 tuxiaolv
人情绪综合是情感计算的关键方面。它涉及使用计算方法通过各种方式模仿和传达人类情绪,以实现更自然和有效的人类计算机相互作用。生成模型的最新进展,例如自动编码器,生成对抗网络,扩散模型,大语言模型和顺序到序列模型,对该领域的发展做出了重大贡献 ...
0 0 0 2025/09/24 arXiv:2412.07116v1 jack_j
使用开放域指令数据训练大型语言模型(llm)在符合最终任务和人类偏好方面取得了显着的成功。广泛的研究强调了教学数据的质量和多样性的重要性。然而,数据复杂性作为一个关键指标的影响,在三个方面仍然相对未被探索:(:(:随着复杂性的增加 ...
0 0 0 2025/09/24 arXiv:2308.05696v2 hongfeng03
前馈3D高斯脱落(3DG)已成为新型视图合成的高效解决方案。现有方法主要依赖于与像素一致的高斯预测范式,其中每个2D像素都映射到3D高斯。我们重新考虑了这种广泛采用的公式并确定了几个固有的局限性:它使重建的3D模型在很大程度上取决于输入视图的数量,导致视图偏见的密度分布,并引入对齐错误,尤其是当源视图包含遮挡或低纹理或低纹理时 ...
0 1 0 2025/09/24 arXiv:2509.19297v1 陆三七
大型语言模型(LLM)的量表不断增长,加剧了推论潜伏期和计算成本。旨在减轻这些问题的投机解码方法通常会在构造象征树的建造和候选 Token 验证时面临效率低下。现有的策略,包括链模式,静态树和动态树方法,在准确准备候选树木以进行验证方面有局限性 ...
0 0 2 2025/09/24 arXiv:2502.13652v1 异次元小世界
大多数技术将图像伪造的本地化问题作为二元分割任务,训练神经网络将原始区域标记为0,而锻造区域将其标记为1。相反,我们通过根据其原始来源对图像进行分区来从更基本的角度来解决这个问题。为此,我们提出了任何锻造图像区域(Safire)的细分,该图像区域(Safire)使用点提示解决了伪造的本地化 ...
0 0 0 2025/09/24 arXiv:2412.08197v1 sun.jiping
基础模型的核心是“更多是不同”的哲学,体现了计算机视觉和自然语言处理的惊人成功。但是, Transformer 模型的优化和固有复杂性的挑战要求范式转向简单性。在这项研究中,我们介绍了Vanillanet,这是一种具有设计优雅的神经网络结构 ...
0 0 0 2025/09/24 arXiv:2305.12972v2 瞢闇

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)