知识图(kgs)是公司的主要资产,这要归功于它们在数据表示方面的灵活性及其众多应用程序,例如词汇共享,q/a或推荐系统 ...
0 0 0 2025/06/18 arXiv:2405.16929v2 HuanLi
图神经网络(GNN)已被广泛用于社交网络,分子生物学或推荐系统等各个领域。同时,已经出现了不同的GNN解释方法来补充其黑盒性质。 GNNS预测的解释可以分为两种类型 - 事实和反事实 ...
0 0 0 2025/06/18 arXiv:2505.07081v2 Rimez
传统信息检索基于文档和查询的稀疏字矢量表示。最近的深度学习方法使用了使用基于 Transformer 的大语言模型学习的密集嵌入。我们表明,在囊性纤维化医学领域的科学文档检索的经典基准上,这两个模型都表现出色 ...
0 0 0 2025/06/18 arXiv:2401.04055v1 DrowXG
反事实解释通过探索项目或用户的最小变化如何影响建议决策来解释建议机制。现有的反事实解释方法面临巨大的搜索空间,其解释是基于动作的(例如 ...
0 0 0 2025/06/18 arXiv:2207.06674v1 CG_Z
最近,知识图(kgs)已成功与大语言模型(LLMS)结合起来,以减轻其幻觉并增强其推理能力,例如在基于KG的检索型框架中。但是,当前的KG-LLM框架缺乏严格的不确定性估计,从而限制了其在高风险应用程序中的可靠部署。直接将不确定性量化纳入kg-llm框架中,由于其复杂的架构以及知识图和语言模型组件之间的复杂相互作用,提出了挑战 ...
0 0 0 2025/06/18 arXiv:2410.08985v2 HuanLi
扩散 Transformer (DIT)对于视频生成至关重要,但由于注意力的二次复杂性而遭受了显着的潜伏期。通过仅计算关键 Token ,稀疏的注意力降低了计算成本,并提供了有希望的加速方法。但是,我们确定现有方法在相同的计算预算下无法达到最佳生成质量,原因有两个:(1)关键 Token 标记识别:当前方法基于位置而不是语义的集群 Token ,导致汇总表示不精确 ...
0 0 0 2025/06/18 arXiv:2505.18875v1 Maggie
因为我们有力地被理解,所以我们创建了公共外部表征 - 哑剧,语言,艺术 - 以外部化我们的内在状态。我们认为,这种外部表示是访问意识的前提,即用于推理的全球信息。然而,与“原始体验”的丰富性相比,访问意识的带宽很小,因此没有外部表示能够全面复制这种丰富性 ...
0 0 0 2025/06/18 arXiv:2506.12086v1 mosymxl
注意机制主要旨在捕获单词之间的成对相关性,已成为机器学习的骨干,扩展到自然语言处理超越其他领域。适应性的增长是以过分庞大的记忆要求和计算复杂性为代价的,尤其是在更高的输入元素下。这种限制是由于固有的数据重用机会和记忆足迹的二次增长造成的,导致了严重的内存结合度和输入元素的可扩展性有限 ...
0 0 0 2025/06/18 arXiv:2107.06419v7 wangjun

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)