传统的社交网络分析通常会模拟同质的模型 - 相似的个体形成联系的趋势 - 使用单个参数,忽略群体内部和跨组的偏见。我们提出了一个指数式的家庭模型,该模型既整合了本地和全球同质,从而在紧密编织的集团内区分了强大的同质性和较弱的同质性跨越更广泛的社区互动。通过通过最大的熵方法对这些形式的同质性建模并在渗透下得出网络行为,我们显示了高阶分类混合如何影响网络动力学 ...
由于大量的视觉 Token 数量,对长期和高分辨率视频进行处理的需求不断增长,这显着负担了大型视觉模型(LVLM)。现有的 Token 减少方法主要集中于基于重要性的 Token 修剪,这忽略了框架相似和重复性视觉元素引起的冗余。在本文中,我们分析了LVLM中的高视力 Token 相似性 ...
文本到sql解析旨在将自然语言指令转换为可执行sql,近年来受到越来越多的关注。特别是,codex和chatgpt在这项任务中取得了令人印象深刻的成果。然而 ...
本文提出了一个名为FlowReasoner的查询级元代理,以自动化查询级别多代理系统的设计,即每个用户查询一个系统 ...
大型语言模型(LLM)在自动化工作流程的生成和优化方面表现出强大的潜力和令人印象深刻的表现。但是,现有方法以有限的推理能力,高计算需求和大量资源要求为特征。为了解决这些问题,我们提出了DebFlow,该框架采用了辩论机制来优化工作流并将反射集成以根据以前的经验进行改进 ...
基于LLM的多机构系统(MAS)在解决各种任务方面具有巨大潜力。但是,为了设计有效的MAS,现有的方法在很大程度上依赖于手动配置或高级LLM的多个调用,从而导致不适当和高推理成本。在本文中,我们简化了通过将MAS重新标记为生成语言任务的过程,其中输入是用户查询,而输出是相应的MAS ...
反向传播网络特别容易受到灾难性遗忘的影响,在学习新技能时,网络往往会忘记以前学习的技能。为了解决这种“敏感性稳定性”困境,以前的大多数努力都用不同的参数正则化项和情节记忆来最大程度地降低经验风险,但很少探索减肥景观的用法。在本文中,我们研究了在持续学习方案中的减肥景观与灵敏度稳定性之间的关系,基于该方案,我们提出了一种新颖的方法,使动态梯度投影记忆(FS-DGPM)的清晰度变平 ...
在本文中,我们提出了一种称为分布匹配(DM)的新型自我监督的转移学习方法,该方法将表示分布向预定义的参考分布驱动,同时保持增强不变性。 DM的设计产生了一个学识渊博的表示空间,该空间具有直观的结构化,并提供了易于解释的超参数。多个现实世界数据集和评估指标之间的实验结果表明,与现有的自我监督转移学习方法相比,DM在目标分类任务上竞争性能 ...