端到端神经组合优化(NCO)方法在解决复杂的组合优化问题的情况下显示出令人鼓舞的表现,而无需专家设计。但是,现有方法在大规模问题上遇到困难,从而阻碍了它们的实际适用性。为了克服这一局限性,这项工作提出了一种新型的自我改良学习方法(SIL)方法,以更好地扩展神经组合优化 ...
0 0 0 2025/01/30 arXiv:2403.19561v3 alex666
我们介绍了由大型语言模型提供动力的高级纸质搜索代理PASA。 PASA可以自主做出一系列决策,包括调用搜索工具,阅读论文和选择相关参考,以最终为复杂的学术查询获得全面而准确的结果。我们使用合成数据集Autoscholarquery使用加固学习来优化PASA,其中包括35K细粒学的学术查询和来自顶级AI会议出版物的相应论文 ...
0 0 0 2025/01/30 arXiv:2501.10120v1 mencius
我们提出了Seg-TTO,这是一个用于零射击,开放式语义分段(OVSS)的新型框架,旨在在专门的域任务中表现出色。虽然当前的开放词汇方法在零摄影设置下在标准细分基准上显示出令人印象深刻的性能,但它们在高度域特异性的数据集上的监督对应物中都没有。我们专注于针对特定的测试时间优化,以解决此差距 ...
0 0 0 2025/01/30 arXiv:2501.04696v1 hesy77
累积的局部效应(ALE)是一种模型不合时宜的方法,用于全局解释黑盒机器学习结果(ML)算法。基于啤酒的统计推断至少有三个挑战:确保啤酒分析的可靠性,尤其是在小型数据集的背景下;直观地表征变量在ML中的总体效应;并根据ML数据分析得出鲁棒的推论。作为回应,我们引入了使用ALE的创新工具和技术,用于统计推断,建立了针对数据集尺寸的自举置信区间,并引入了ALE效应尺寸的尺寸测量指标,以直观地表明对结果变 ...
0 0 0 2025/01/29 arXiv:2310.09877v4 guaz
大型语言模型(LLM)驱动了各种NLP任务的重大进步,长期以来的模型在处理扩展输入方面具有突出性。但是, Transformer 体系结构所需的扩展的键值(KV)高速缓存大小加剧了内存约束,尤其是在解码阶段,创造了重要的瓶颈。旨在解决这种瓶颈的现有稀疏注意机制有两个局限性:(1)他们通常无法可靠地识别最相关的 Token 以引起注意,并且(2)他们忽略了连续 Transformer 层次的 Tok ...
0 0 0 2025/01/29 arXiv:2410.05076v1 hackerwei
参数有效的调整已成为将大规模基础模型转移到下游应用的趋势。现有方法通常将一些轻量级调谐器嵌入到主链中,在该主链中,调谐器的设计和学习都高度依赖于基本模型。这项工作提供了一种新的调谐范式,称为重新调整,该范式有意将调谐器与骨干区解脱 ...
0 0 0 2025/01/29 arXiv:2310.19859v1 tremble
解决旅行销售人员问题(TSP)仍然是一个持续的挑战,尽管它在现代背景下的众多广义应用中的基本作用。启发式求解器应对有效寻找高质量解决方案的需求。在这些求解器中,Lin-Kernighan-Helsgaun(LKH)的启发式脱颖而出,因为它补充了各种问题实例中遗传算法的性能 ...
0 0 0 2025/01/29 arXiv:2407.03927v1 alex666
随着大型语言模型(LLM)的发展,它们提供个性化和上下文感知的响应的能力为改善用户体验提供了变革潜力。但是,现有的个性化方法通常仅依靠用户历史记录来增强提示,从而限制了它们在生成量身定制的输出方面的有效性,尤其是在稀疏数据的冷启动场景中。为了解决这些限制,我们提出了个性化的基于图的检索增强生成(Pgraphrag),该框架利用以用户为中心的知识图来丰富个性化 ...
0 0 0 2025/01/29 arXiv:2501.02157v1 15370090936

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)