居住时间(DT)是点击点点击指标,用于评估推荐系统中的用户偏好,并补充传统的点击率(CTR)。尽管多任务学习被广泛采用以共同优化DT和CTR,但我们观察到,多任务模型系统地将其DT预测系统崩溃到了最短和最长的垃圾箱,从而不足以预测适度的持续时间。我们将这种中等含量的代表性不足归因于对CTR-DT伪造相关性的过度依赖,并提议用因果关系来解决它 ...
0 0 0 2025/09/17 arXiv:2508.16573v1 yqstar
预审前的视力基础模型在各种视觉任务中都显示出巨大的潜力。但是,对于工业异常检测,实际缺陷样本的稀缺性在利用这些模型方面构成了关键的挑战。尽管既定的生成模型都有2D异常的产生已显着提高,但在工业制造中采用3D传感器已使3D数据的表面质量检查成为新兴趋势 ...
0 0 0 2025/09/17 arXiv:2504.12856v1 ggggggsm
大型语言模型(LLM)的持续缩放是否会导致回报减少?现实世界的价值通常源于代理可以完成的任务长度。我们通过观察一个简单但违反直觉的事实开始这项工作,即单步准确性的边际收益可以使模型可以成功完成的任务长度增加指数改进。然后,我们认为,在执行中的错误而不是无法推理时,LLM的失败会导致更长的时间 ...
0 0 0 2025/09/17 arXiv:2509.09677v1 timturing
我们介绍了Egomem,这是第一个针对处理实时全模式流的全双工模型量身定制的终身内存代理。 Egomem使实时模型能够直接从原始视听流中识别多个用户,提供个性化的响应,并保持对用户事实,偏好和从视听历史中提取的社会关系的长期知识。 Egomem通过三个异步过程运行:(i)检索过程通过面部和语音动态识别用户,并从长期内存中收集相关的上下文; (ii)一个综合对话框过程,该过程基于检索到的上下文生成个 ...
0 0 0 2025/09/17 arXiv:2509.11914v1 JamesLei
强化学习(RL)已被证明在引发大语言模型(LLMS)的推理能力方面非常有效。受到这一成功的启发,最近的研究探索了将类似技术应用于视觉模型(VLM),旨在提高其推理性能。但是,从LLM到VLM的直接移植RL方法是次优的,因为VLMS所面临的任务本质上更为复杂 ...
0 0 0 2025/09/17 arXiv:2509.13031v1 麦兜
在高质量的结构化数据(例如数学和代码)上预处理大型语言模型(LLM)大大增强了推理能力。但是,由于脆弱的提取启发式,HTML到文本转换以及未能可靠地维护数学结构,现有由常见爬网构建的以数学为中心的数据集损失了质量下降的质量。在这项工作中,我们介绍了Nemotron-CC-MATH,这是一种大规模的高质量数学语料库,使用新颖的,域形的无形管道构建,专为可靠的科学文本提取而设计 ...
0 0 0 2025/09/17 arXiv:2508.15096v1 lianzhepku
大语言模型(LLM)的产出和幻觉不一致是可靠的AI系统的主要障碍。当不同的专有推理模型(RMS)(例如OpenAI,Google,Anthropic,DeepSeek和XAI)被同样复杂的请求时,由于培训和推理的变化,它们通常会产生不同的结果。本文提出了一种新的共识机制,灵感来自分布式分类帐技术,以验证和收敛这些输出,将每个RM视为黑盒对等 ...
0 0 0 2025/09/17 arXiv:2505.03553v1 lpfgss
深度学习(DL)已成为点云分析任务(例如检测,分割和分类)的主流和有效方法之一。为了减少在训练模型中的过度拟合并提高模型性能,尤其是在培训数据的数量和/或多样性受到限制时,增强通常至关重要。尽管各种点云数据增强方法已被广泛用于不同的点云处理任务,但目前尚无对这些方法的系统调查或评论 ...
0 0 0 2025/09/17 arXiv:2308.12113v5 ggggggsm

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)