Federated Learning(FL)是一种协作机器学习技术,其中多个客户与Central Server合作训练全球模型而无需共享其私人数据。但是,在非IID客户端数据集上的分布变化对这种单模型拟合的方法提出了一个挑战,该方法阻碍了全局模型有效适应每个客户端的唯一本地数据的能力。为了回应这一挑战,个性化的FL(PFL)旨在允许每个客户创建针对其私人数据量身定制的个性化本地模型 ...
0 0 0 2025/05/06 arXiv:2406.06207v1 chenzhuo-wang
大型语言模型(LLMS)通常会产生错误的输出,称为幻觉,因为它们在知识范围之外的识别问题中的局限性。虽然解决幻觉一直是研究的焦点,但以前的努力主要集中于增强正确性,而无需给予拒绝机制的重要性。在本文中,我们对排斥的作用进行了全面的检查,引入了模型可靠性以及相应的指标 ...
0 0 0 2025/05/06 arXiv:2403.18349v3 cky
大型语言模型(LLM)在一系列自然语言处理任务中表现出了令人印象深刻的功能。特别是,推理能力和上下文窗口扩展的改进为利用这些强大的模型开辟了新的途径。 NL2SQL具有挑战性,因为自然语言问题本质上是模棱两可的,而SQL生成需要精确理解复杂的数据模式和语义 ...
0 0 0 2025/05/06 arXiv:2501.12372v5 zkq
图是基于连接实体之间关系的系统的自然表示。当考虑与离散结构的感兴趣过程相关的目标函数时,出现的组合优化问题通常是由于解决方案空间的快速增长而挑战。强化学习的反复试验范式最近已成为传统方法(例如精确算法和(元)启发式方法等传统方法的一种有希望的替代方法,用于在包括化学,计算机科学和统计数据在内的各种学科中发现更好的决策策略 ...
0 0 0 2025/05/06 arXiv:2404.06492v2 打笨蛋
语言模型(LMS)应提供可靠的置信度估算,以帮助用户在其产出中发现错误,并在必要时延迟到人类专家。要求语言模型评估其信心(“从0-1中获得信心。”是一种自然的方法来评估其不确定性 ...
0 0 0 2025/05/06 arXiv:2502.01126v1 cky
图神经网络(GNN)是最受欢迎的深度学习研究主题之一。 GNN方法通常是在图形信号处理理论之上设计的。特别是,扩散方程已被广泛用于设计GNN的核心处理层,因此它们不可避免地容易受到臭名昭著的超平滑尺寸问题的影响 ...
0 0 0 2025/05/06 arXiv:2211.14208v3 tuxiaolv
近年来,对比性语言图像预训练(剪辑)已成为多模式智能的基石。但是,最近的研究表明,剪辑编码过程中的信息丢失是很大的,夹子倾向于仅捕获输入中的粗粒粒度特征。这种缺陷显着限制了单个剪辑模型处理富含视觉细节的图像的能力 ...
0 0 0 2025/05/06 arXiv:2409.19291v2 helloworldhello
股票价格预测在定量投资中至关重要。现有方法遇到了两个主要问题:首先,他们经常忽略捕获短期库存波动来预测高挥发性回报的关键作用。其次,主流方法依靠图或注意机制,不充分地探索库存之间的时间关系,通常会随着时间的推移和之后的特征和因果关系而模糊 ...
0 0 0 2025/05/06 arXiv:2411.06065v1 nnstake

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)