在本文中,我研究了在计算机视觉中使用流行的深度学习架构时随机种子选择对准确性的影响。我在cifar 10 上扫描了大量种子(高达10^4 $),并且还使用预训练模型在Imagenet上扫描较少种子来研究大规模数据集。结论是,即使方差不是很大,也很容易找到表现比平均值好得多或差得多的异常值... ...
0 0 0 2025/06/05 arXiv:2109.08203v2 xuanyue.zhong
预测模型通常需要在现实世界任务中处理不完整的信息。因此,他们必须提供可靠的可能性或信心估计,尤其是在大规模决策和计划任务中。当前的大型语言模型(LLM)不足以进行准确的估计,但是它们可以产生可能影响概率的相关因素,当信息更完整时产生粗粒的概率,并有助于确定哪些因素与特定的下游环境有关 ...
0 0 0 2025/06/05 arXiv:2404.12494v3 Daenerays
在数据挖掘文献中已经对图生成模型进行了广泛的研究。尽管传统技术基于生成遵守预先决定分布的结构,但最近的技术已转向直接从数据中学习此分布。虽然基于学习的方法已经取得了显着提高质量,但仍有一些限制待解决 ...
0 0 0 2025/06/05 arXiv:2001.08184v2 victoriaheiheihei
大型语言模型(LLMS)供推荐(LLM4REC)是一个有前途的研究方向,在该领域表现出非凡的表现。但是,它无法捕获实时用户偏好极大地限制了LLM4REC的实际应用,因为(i)LLMS经常训练和推断成本高昂,并且(ii)LLMS难以访问实时数据(其大量参数构成了在设备上部署的障碍)。幸运的是,小型推荐模型(SRMS)可以通过消耗最小的资源来有效地补充LLM4REC图的这些缺点,以供频繁训练和推理以及 ...
0 0 0 2025/06/05 arXiv:2501.05647v2 帅哥
近年来,大型语言模型(LLMS)取得了巨大的成功,因为它们令人印象深刻的概括能力和丰富的世界知识。为了利用使用LLM作为推荐系统的潜力,主流方法通常集中在两个范式上。第一个范式设计多域或多任务指令数据,以获取可推广的建议,以使LLM与一般建议区域保持一致并处理冷启动建议 ...
0 0 0 2025/06/05 arXiv:2502.08271v1 帅哥
基于意图的推荐系统已引起了揭示潜在细粒偏好的极大关注。意图,作为相互作用的潜在因素,对于改善建议解释性至关重要。大多数方法将意图定义为与交互一起更新的可学习参数 ...
0 0 0 2025/06/05 arXiv:2502.03307v4 帅哥
减轻视觉模型(VLM)风险的一种方法是在其培训数据中删除危险样本。但是,当有害图像分为小小的良性斑块时,可以轻松绕过此类数据,这些贴片分散在许多训练样本中。然后,VLM可以在训练过程中学习将这些片段拼凑在一起,并在推理时产生有害响应,无论是完整图像还是文本引用 ...
0 0 0 2025/06/05 arXiv:2506.03614v1 haoyi199815
随着应用程序变得越来越强大,采用越来越频繁,了解和塑造大语模型(LLM)的行为越来越重要。本文介绍了专门为LLM设计的机器学习方法。我们为LLMS引入了一种选择性修剪方法,该方法基于神经元与整体网络性能相比对目标能力的相对重要性去除神经元 ...
0 0 0 2025/06/05 arXiv:2403.01267v2 wuyi

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)