大型语言模型(LLMS)在两个封闭的任务(包括解决问题和代码生成)和开放任务(包括创意写作)中表现出色,但现有的对其能力的解释缺乏与现实世界人类智能的联系。为了填补这一空白,本文通过``人类仿真''的角度系统地研究了LLM智能,解决了三个核心问题:(1)人格特质如何影响封闭任务中的问题解决问题? (2)特征如何在开放任务中塑造创造力? (3)单格绩效如何影响多代理协作?通过为LLM代理商分配五个个 ...
0 1 0 2025/03/18 arXiv:2502.20859v1 ewan_rowan
大约最近的邻居搜索(ANN)是找到最接近给定查询向量的数据库向量的任务。基于图的ANN是一种方法家族,具有最佳的数百万尺度数据集的准确性和速度平衡。但是,基于图的方法具有较长索引构建时间的缺点 ...
0 0 0 2025/03/18 arXiv:2310.20419v1 李大人
HyperGraph具有强大的捕获高阶关系的能力,最近引起了极大的关注。因此,已经出现了许多超图表学习方法,以模拟超图之间的复杂关系。通常,这些方法利用经典的扩展​​方法将超图转换为加权或两分图,并进一步采用消息传递机制来对超图中的复杂结构进行建模 ...
0 0 0 2025/03/18 arXiv:2502.15564v1 yuwxyun275
投机抽样是加速大型语言模型(LLMS)解码阶段的一种有前途的方法。利用目标LLM的上下文信息(例如隐藏状态和KV缓存)的最新进展已显示出显着的实际改进。但是,这些方法在训练和解码之间存在不一致的情况 ...
0 0 0 2025/03/18 arXiv:2408.15766v3 wufeifan
现有的多模态大语言模型(MLLM)越来越强调对各种视觉元素的复杂理解,包括多个对象、文本信息和空间关系。它们的综合视觉感知的发展取决于高质量图像文本数据集的可用性,这些数据集提供不同的视觉元素和整个图像描述。然而,此类超详细数据集的稀缺目前阻碍了 MLLM 社区的进步 ...
0 0 0 2025/03/18 arXiv:2407.08303v2 my_lsz
可以直接综合看不见的场景的新型视图的跨性别概括的NERF模型已成为NERF领域的新聚光灯。现有的几项尝试依赖于越来越多的端到端“神经化”架构,即 ...
0 0 0 2025/03/18 arXiv:2308.11793v1 漏视野
大型语言模型在各种自然语言处理任务中取得了巨大的成功,但推断期间的高计算成本仍然是主要的瓶颈。本文介绍了稀疏的专家激活修剪(SEAP),这是一种无训练的修剪方法,有选择地保留与任务相关的参数以减少推理开销。 SEAP受到隐藏状态和激活的聚类模式的启发,SEAP确定了特定于任务的专家激活模式并修剪模型,同时保留任务性能并提高计算效率 ...
0 0 0 2025/03/18 arXiv:2503.07605v1 libai
本文介绍了一种新颖的方法,用于通过将嵌入式3D高斯语言与大语言模型(LLMS)相结合(LLMS),以自动驾驶中的开放式3D场景查询。我们建议利用LLM生成上下文规范的短语,并帮助积极的单词来增强细分和场景解释。我们的方法利用GPT-3 ...
0 0 0 2025/03/18 arXiv:2408.03516v3 漏视野

来一起翻译吧!


为了您和其他读者获得更好的阅读体验,请您勇敢地改进翻译,特别是一些显而易见的机器翻译错误。


虽然我们追求卓越,但我们并不要求翻译十全十美,因此请不要担心您翻译有误 —— 我们的服务器已经记录所有的翻译,您不必担心会因为您的失误导致无法挽回的破坏。(改编自维基百科)